4 resultados para Clustering techniques

em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Esta dissertação apresenta resultados da aplicação de filtros adaptativos, utilizando os algoritmos NLMS (Normalized Least Mean Square) e RLS (Recursive Least Square), para a redução de desvios em previsões climáticas. As discrepâncias existentes entre o estado real da atmosfera e o previsto por um modelo numérico tendem a aumentar ao longo do período de integração. O modelo atmosférico Eta é utilizado operacionalmente para previsão numérica no CPTEC/INPE e como outros modelos atmosféricos, apresenta imprecisão nas previsões climáticas. Existem pesquisas que visam introduzir melhorias no modelo atmosférico Eta e outras que avaliam as previsões e identificam os erros do modelo para que seus produtos sejam utilizados de forma adequada. Dessa forma, neste trabalho pretende-se filtrar os dados provenientes do modelo Eta e ajustá-los, de modo a minimizar os erros entre os resultados fornecidos pelo modelo Eta e as reanálises do NCEP. Assim, empregamos técnicas de processamento digital de sinais e imagens com o intuito de reduzir os erros das previsões climáticas do modelo Eta. Os filtros adaptativos nesta dissertação ajustarão as séries ao longo do tempo de previsão. Para treinar os filtros foram utilizadas técnicas de agrupamento de regiões, como por exemplo o algoritmo de clusterização k-means, de modo a selecionar séries climáticas que apresentem comportamentos semelhantes entre si. As variáveis climáticas estudadas são o vento meridional e a altura geopotencial na região coberta pelo modelo de previsão atmosférica Eta com resolução de 40 km, a um nível de pressão de 250 hPa. Por fim, os resultados obtidos mostram que o filtro com 4 coeficientes, adaptado pelo algoritmo RLS em conjunto com o critério de seleção de regiões por meio do algoritmo k-means apresenta o melhor desempenho ao reduzir o erro médio e a dispersão do erro, tanto para a variável vento meridional quanto para a variável altura geopotencial.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho, é proposta uma nova família de métodos a ser aplicada à otimização de problemas multimodais. Nestas técnicas, primeiramente são geradas soluções iniciais com o intuito de explorar o espaço de busca. Em seguida, com a finalidade de encontrar mais de um ótimo, estas soluções são agrupadas em subespaços utilizando um algoritmo de clusterização nebulosa. Finalmente, são feitas buscas locais através de métodos determinísticos de otimização dentro de cada subespaço gerado na fase anterior com a finalidade de encontrar-se o ótimo local. A família de métodos é formada por seis variantes, combinando três esquemas de inicialização das soluções na primeira fase e dois algoritmos de busca local na terceira. A fim de que esta nova família de métodos possa ser avaliada, seus constituintes são comparados com outras metodologias utilizando problemas da literatura e os resultados alcançados são promissores.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Em muitas representações de objetos ou sistemas físicos se faz necessário a utilização de técnicas de redução de dimensionalidade que possibilitam a análise dos dados em baixas dimensões, capturando os parâmetros essenciais associados ao problema. No contexto de aprendizagem de máquina esta redução se destina primordialmente à clusterização, reconhecimento e reconstrução de sinais. Esta tese faz uma análise meticulosa destes tópicos e suas conexões que se encontram em verdadeira ebulição na literatura, sendo o mapeamento de difusão o foco principal deste trabalho. Tal método é construído a partir de um grafo onde os vértices são os sinais (dados do problema) e o peso das arestas é estabelecido a partir do núcleo gaussiano da equação do calor. Além disso, um processo de Markov é estabelecido o que permite a visualização do problema em diferentes escalas conforme variação de um determinado parâmetro t: Um outro parâmetro de escala, Є, para o núcleo gaussiano é avaliado com cuidado relacionando-o com a dinâmica de Markov de forma a poder aprender a variedade que eventualmente seja o suporte do dados. Nesta tese é proposto o reconhecimento de imagens digitais envolvendo transformações de rotação e variação de iluminação. Também o problema da reconstrução de sinais é atacado com a proposta de pré-imagem utilizando-se da otimização de uma função custo com um parâmetro regularizador, γ, que leva em conta também o conjunto de dados iniciais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertaçãoo investiga a utilização de Particle Swarm Optimization (PSO) para a obtenção automática de sistemas fuzzy do tipo Mamdani, tendo como insumo apenas as definições das variáveis do problema, seus domínios e a função objetivo. Neste trabalho utilizam-se algumas técnicas conhecidas na tentativa de minimizar a obtenção de sistemas fuzzy que não sejam coerentes. As principais técnicas usadas são o método de Wang e Mendell, chamado de WM, para auxiliar na obtenção de regras, e os conceitos de clusterização para obtenção das funções de pertinência. Na função de avaliação proposta, considera-se não somente a acurácia do sistema fuzzy, através da medida do erro, mas também a sua interpretabilidade, através da medida da compacidade, que consiste da quantidade de regras e funções membro, da distinguibilidade, que permite evitar que as funções membro não se confundam, e da completude, que permite avaliar que as funções membro abranjam o máximo do domínio. O propósito deste trabalho consiste no desenvolvimento de um algoritmo baseado em PSO, cuja função de avaliação congregue todos esses objetivos. Com parâmetros bem definidos, o algoritmo pode ser utilizado em diversos tipos de problemas sem qualquer alteração, tornando totalmente automática a obtenção de sistemas fuzzy. Com este intuito, o algoritmo proposto é testado utilizando alguns problemas pré-selecionados, que foram classificados em dois grupos, com base no tipo de função: contínua ou discreta. Nos testes com funções contínuas, são utilizados sistemas tridimensionais, com duas variáveis de entrada e uma de saída, enquanto nos testes com funções discretas são utilizados problemas de classificação, sendo um com quatro variáveis e outro com seis variáveis de entrada. Os resultados gerados pelo algoritmo proposto são comparados com aqueles obtidos em outros trabalhos.