76 resultados para Algoritmos Evolutivos


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atualmente existem diferentes ferramentas computacionais para auxílio nos estudos de coordenação da proteção, que permitem traçar as curvas dos relés, de acordo com os parâmetros escolhidos pelos projetistas. Entretanto, o processo de escolha das curvas consideradas aceitáveis, com um elevado número de possibilidades e variáveis envolvidas, além de complexo, requer simplificações e iterações do tipo tentativa e erro. Neste processo, são fatores fundamentais tanto a experiência e o conhecimento do especialista, quanto um árduo trabalho, sendo que a coordenação da proteção é qualificada pela IEEE Std. 242 como sendo mais uma arte do que uma ciência. Este trabalho apresenta o desenvolvimento de um algoritmo genético e de um algoritmo inspirado em otimização por colônia de formigas, para automatizar e otimizar a coordenação da função de sobrecorrente de fase de relés digitais microprocessados (IEDs), em subestações industriais. Seis estudos de caso, obtidos a partir de um modelo de banco de dados, baseado em um sistema elétrico industrial real, são avaliados. Os algoritmos desenvolvidos geraram, em todos os estudos de caso, curvas coordenadas, atendendo a todas as restrições previamente estabelecidas e as diferenças temporais de atuação dos relés, no valor de corrente de curto circuito trifásica, apresentaram-se muito próximas do estabelecido como ótimo. As ferramentas desenvolvidas demonstraram potencialidade quando aplicadas nos estudos de coordenação da proteção, tendo resultados positivos na melhoria da segurança das instalações, das pessoas, da continuidade do processo e do impedimento de emissões prejudiciais ao meio ambiente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta Dissertação irá apresentar a utilização de técnicas de controle nãolinear, tais como o controle adaptativo e robusto, de modo a controlar um sistema de Eletroestimulação Funcional desenvolvido pelo laboratório de Engenharia Biomédica da COPPE/UFRJ. Basicamente um Eletroestimulador Funcional (Functional Electrical Stimulation FES) se baseia na estimulação dos nervos motores via eletrodos cutâneos de modo a movimentar (contrair ou distender) os músculos, visando o fortalecimento muscular, a ativação de vias nervosas (reinervação), manutenção da amplitude de movimento, controle de espasticidade muscular, retardo de atrofias e manutenção de tonicidade muscular. O sistema utilizado tem por objetivo movimentar os membros superiores através do estímulo elétrico de modo a atingir ângulos-alvo pré-determinados para a articulação do cotovelo. Devido ao fato de não termos conhecimento pleno do funcionamento neuro-motor humano e do mesmo ser variante no tempo, não-linear, com parâmetros incertos, sujeito a perturbações e completamente diferente para cada indivíduo, se faz necessário o uso de técnicas de controle avançadas na tentativa de se estabilizar e controlar esse tipo de sistema. O objetivo principal é verificar experimentalmente a eficácia dessas técnicas de controle não-linear e adaptativo em comparação às técnicas clássicas, de modo a alcançar um controle mais rápido, robusto e que tenha um desempenho satisfatório. Em face disso, espera-se ampliar o campo de utilização de técnicas de controle adaptativo e robusto, além de outras técnicas de sistemas inteligentes, tais como os algoritmos genéticos, provando que sua aplicação pode ser efetiva no campo de sistemas biológicos e biomédicos, auxiliando assim na melhoria do tratamento de pacientes envolvidos nas pesquisas desenvolvidas no Laboratório de Engenharia Biomédica da COPPE/UFRJ.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As biometrias vêm sendo utilizadas como solução de controle de acesso a diversos sistemas há anos, mas o simples uso da biometria não pode ser considerado como solução final e perfeita. Muitos riscos existem e não devem ser ignorados. A maioria dos problemas está relacionada ao caminho de transmissão entre o local onde os usuários requerem seus acessos e os servidores onde são guardados os dados biométricos capturados em seu cadastro. Vários tipos de ataques podem ser efetuados por impostores que desejam usar o sistema indevidamente. Além dos aspectos técnicos, existe o aspecto social. É crescente a preocupação do usuário tanto com o armazenamento quanto o uso indevido de suas biometrias, pois é um identificador único e, por ser invariável no tempo, pode ser perdido para sempre caso seja comprometido. O fato de que várias empresas com seus diferentes servidores guardarem as biometrias está causando incomodo aos usuários, pois as torna mais suscetíveis à ataques. Nesta dissertação, o uso de cartões inteligentes é adotado como possível solução para os problemas supracitados. Os cartões inteligentes preparados para multi-aplicações são usados para realizar as comparações biométricas internamente. Dessa forma, não seria mais necessário utilizar diversos servidores, pois as características biométricas estarão sempre em um único cartão em posse do dono. Foram desenvolvidas e implementadas três diferentes algoritmos de identificação biométrica utilizando diferentes características: impressão digital, impressão da palma da mão e íris. Considerando a memória utilizada, tempo médio de execução e acurácia, a biometria da impressão da palma da mão obteve os melhores resultados, alcançando taxas de erro mínimas e tempos de execução inferiores a meio segundo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os Sistemas Multi-Robôs proporcionam vantagens sobre um robô individual, quando da realização de uma tarefa com maiores velocidade, precisão e tolerância a falhas. Os estudos dos comportamentos sociais na natureza têm permitido desenvolver algoritmos bio-inspirados úteis na área da robótica de enxame. Seguindo instruções simples e repetitivas, grupos de robôs, fisicamente limitados, conseguem solucionar problemas complexos. Quando existem duas ou mais tarefas a serem realizadas e o conjunto de robôs é heterogêneo, é possível agrupá-los de acordo com as funcionalidades neles disponíveis. No caso em que o conjunto de robôs é homogêneo, o agrupamento pode ser realizado considerando a posição relativa do robô em relação a uma tarefa ou acrescentando alguma característica distintiva. Nesta dissertação, é proposta uma técnica de clusterização espacial baseada simplesmente na comunicação local de robôs. Por meio de troca de mensagens entre os robôs vizinhos, esta técnica permite formar grupos de robôs espacialmente próximos sem precisar movimentar os robôs. Baseando-se nos métodos de clusterização de fichas, a técnica proposta emprega a noção de fichas virtuais, que são chamadas de cargas, sendo que uma carga pode ser estática ou dinâmica. Se uma carga é estática permite determinar a classe à qual um robô pertence. Dependendo da quantidade e do peso das cargas disponíveis no sistema, os robôs intercambiam informações até alcançar uma disposição homogênea de cargas. Quando as cargas se tornam estacionárias, é calculada uma densidade que permite guiar aquelas que estão ainda em movimento. Durante as experiências, foi observado visualmente que as cargas com maior peso acabam se agrupando primeiro enquanto aquelas com menor peso continuam se deslocando no enxame, até que estas cargas formem faixas de densidades diferenciadas para cada classe, alcançando assim o objetivo final que é a clusterização dos robôs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A renderização de volume direta tornou-se uma técnica popular para visualização volumétrica de dados extraídos de fontes como simulações científicas, funções analíticas, scanners médicos, entre outras. Algoritmos de renderização de volume, como o raycasting, produzem imagens de alta qualidade. O seu uso, contudo, é limitado devido à alta demanda de processamento computacional e o alto uso de memória. Nesse trabalho, propomos uma nova implementação do algoritmo de raycasting que aproveita a arquitetura altamente paralela do processador Cell Broadband Engine, com seus 9 núcleos heterogêneos, que permitem renderização eficiente em malhas irregulares de dados. O poder computacional do processador Cell BE demanda um modelo de programação diferente. Aplicações precisam ser reescritas para explorar o potencial completo do processador Cell, que requer o uso de multithreading e código vetorizado. Em nossa abordagem, enfrentamos esse problema distribuindo a computação de cada raio incidente nas faces visíveis do volume entre os núcleos do processador, e vetorizando as operações da integral de iluminação em cada um. Os resultados experimentais mostram que podemos obter bons speedups reduzindo o tempo total de renderização de forma significativa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O uso de marcadores do tipo STR e SNP tem se revelado de grande importância na discriminação entre indivíduos de uma mesma população, assim como para estudos evolutivos. A utilização de um conjunto de 17 STRs e 46 SNPs específicos de cromossomo Y permitiu a caracterização de um conjunto de amostras representativas das populações do Rio de Janeiro e do oeste africano, com uma avaliação mais ampla sobre a ancestralidade de origem paterna. Na primeira parte deste estudo foram analisados 605 indivíduos do sexo masculino do estado do Rio de Janeiro. Como resultado, não foram observadas diferenças significativas entre as populações do sudeste e do Rio de Janeiro, que apresentou uma alta diversidade de haplótipos (0,9999 0,0001) e de haplogrupos (0,7589 0,0171). A comparação da população miscigenada do Rio de Janeiro com diferentes grupos étnicos ou populacionais mostrou que a frequência de indivíduos com marcadores tipicamente Europeus é de 77%, africanos é de 14,87% e em ameríndios é de 2,31%. A segunda parte do estudo revelou uma grande diversidade haplotípica (1,0000 0,0018) numa amostra do Oeste africano. Quanto ao valor da diversidade de haplogrupos (0,6895 0,0200), este foi similar aos observados em populações de origem Bantu do oeste e centro africanos, principalmente de Benin, Nigéria e Costa do Marfim. A terceira parte deste estudo mostrou que não existem diferenças significativas entre o componente africano da amostra do Rio de Janeiro e as populações africanas do sudeste, oeste e centro oeste. Por outro lado, observamos diferenças significativas quando comparamos o componente africano do Rio de Janeiro e o oeste africano com populações de Uganda, Quênia e África do Sul. A ampliação de estudos genéticos nas populações da África se fazem necessários para o entendimento da diversidade genética no mundo. Este trabalho contribuiu para fornecer mais alguns dados genéticos, que podem ser somados aos estudos mundiais que estão sendo realizados, ampliando os nossos conhecimentos sobre a formação das populações que também foram influenciadas pelo fenômeno da Diáspora Africana.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Métodos de otimização que utilizam condições de otimalidade de primeira e/ou segunda ordem são conhecidos por serem eficientes. Comumente, esses métodos iterativos são desenvolvidos e analisados à luz da análise matemática do espaço euclidiano n-dimensional, cuja natureza é de caráter local. Consequentemente, esses métodos levam a algoritmos iterativos que executam apenas as buscas locais. Assim, a aplicação de tais algoritmos para o cálculo de minimizadores globais de uma função não linear,especialmente não-convexas e multimodais, depende fortemente da localização dos pontos de partida. O método de Otimização Global Topográfico é um algoritmo de agrupamento, que utiliza uma abordagem baseada em conceitos elementares da teoria dos grafos, a fim de gerar bons pontos de partida para os métodos de busca local, a partir de pontos distribuídos de modo uniforme no interior da região viável. Este trabalho tem dois objetivos. O primeiro é realizar uma nova abordagem sobre método de Otimização Global Topográfica, onde, pela primeira vez, seus fundamentos são formalmente descritos e suas propriedades básicas são matematicamente comprovadas. Neste contexto, propõe-se uma fórmula semi-empírica para calcular o parâmetro chave deste algoritmo de agrupamento, e, usando um método robusto e eficiente de direções viáveis por pontos-interiores, estendemos o uso do método de Otimização Global Topográfica a problemas com restrições de desigualdade. O segundo objetivo é a aplicação deste método para a análise de estabilidade de fase em misturas termodinâmicas,o qual consiste em determinar se uma dada mistura se apresenta em uma ou mais fases. A solução deste problema de otimização global é necessária para o cálculo do equilíbrio de fases, que é um problema de grande importância em processos da engenharia, como, por exemplo, na separação por destilação, em processos de extração e simulação da recuperação terciária de petróleo, entre outros. Além disso, afim de ter uma avaliação inicial do potencial dessa técnica, primeiro vamos resolver 70 problemas testes, e então comparar o desempenho do método proposto aqui com o solver MIDACO, um poderoso software recentemente introduzido no campo da otimização global.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ecologicamente, comunidades são conjuntos de populações convivendo no mesmo espaço e tempo. A forma como as espécies que compõem estas comunidades, como elas se distribuem e como estão estruturadas, depende de inúmeros fatores, entre eles históricos, biogeográficos e evolutivos. Neste estudo, buscamos compreender como as comunidades de anfíbios anuros e de lagartos estão estruturadas e quais fatores ambientais e de degradação são determinantes nesta estruturação. Amostramos cinco remanescentes de restinga no estado do Espírito Santo, utilizando método de procura ativa em transecções lineares nas diferentes fisionomias vegetais destes ecossistemas. Realizamos amostragens nas estações seca e de chuvas em todas as restingas, e somamos um total de 60 horas de esforço amostral para os anfíbios e 75 horas para os lagartos. Registramos um total de 32 espécies de anfíbios anuros conjuntamente nos cinco remanescentes de restinga, sendo duas destas espécies endêmicas deste ecossistema: Scinax agilis e Melanophryniscus setiba. A restinga do Parque Paulo Cesar Vinha foi o remanescente com a maior riqueza de espécies de anuros, enquanto a restinga da Reserva Biológica de Comboios foi, comparativamente, o remanescente com menor riqueza de espécies. Em termos de composição de espécies, as restingas de Praia das Neves e Paulo Cesar Vinha foram as mais similares, enquanto a restinga de Comboios foi a mais distante na análise de agrupamento. Registramos no conjunto de restingas seis modos reprodutivos para as espécies de anuros, sendo 75% deles relacionados aos ambientes aquáticos. A disponibilidade de locais de desova esteve positivamente relacionada à riqueza de espécies. Todos os mesohábitats das restingas, com exceção das fitofisionomias de halófila-psamófila, foram utilizados pelos indivíduos registrados, entretanto, uma porcentagem considerável dos indivíduos foi encontrada nos alagados. Em relação às comunidades de lagartos, adotamos além dos nossos dados, aqueles disponíveis em Dias e Rocha (2014) e aqueles disponíveis em Winck (2012). Registramos um total de 23 espécies de lagartos nos remanescentes de restinga amostrados nos estados do Rio de Janeiro, Espírito Santo e Bahia. Observamos que as comunidades presentes nos remanescentes estudados possuem considerável diferenciação entre elas. A diversidade beta (β) foi elevada enquanto o grau de aninhamento foi intermediário. Registramos ainda a presença do lagarto exótico invasor Hemidactylus mabouia em ambiente natural nos remanescentes de restinga estudados neste Tese. Encontramos 45 indivíduos, distribuídos em três dos cinco remanescentes amostrados. Registramos ainda ovos de H. mabouia (2 deles eclodidos) em dois dos cinco locais estudados, indicando que o recrutamento de indivíduos está ocorrendo com sucesso nas populações invasoras. A presença de H. mabouia esteve relacionada à restingas com maior frequência de degradação ambiental. Consideramos que os dados obtidos nesta tese, fornecem informações de considerável importância para o entendimento da estrutura das comunidades de anfíbios e lagartos nos ecossistemas de restinga ao longo da costa brasileira

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa refere-se ao desenvolvimento de um novo sistema triagem ou classificação de risco para os serviços de urgências e emergências pediátricas e ao estudo de validade e confiabilidade deste instrumento. O primeiro tópico trata de conceitos e fundamentos relacionados à triagem e evidencia a complexidade do tema em vários aspectos. O segundo tópico apresenta as justificativas para o desenvolvimento de um novo sistema de classificação de risco para o contexto de saúde brasileiro, diante das inadequações de se adotar sistemas idealizados em países com desenvolvimento econômico, social e cultural diversos. O terceiro tópico apresenta os objetivos da pesquisa: rever o estado da arte em relação à validade e confiabilidade de sistemas de triagem em crianças, descrever o desenvolvimento de um sistema brasileiro de classificação de risco para urgências e emergências pediátricas e estudar a validade e confiabilidade do novo instrumento. O quarto tópico é uma revisão sistemática da literatura sobre a validade e confiabilidade dos sistemas de triagem utilizados na população pediátrica. Localizaram-se estudos sobre sete sistemas de triagem desenvolvidos no Canadá, Reino Unido, EUA, Austrália, Escandinávia e África do Sul. Constatou-se a dificuldade de se comparar o desempenho de diferentes instrumentos, devido à heterogeneidade dos desfechos, das populações e dos contextos de saúde estudados. O quinto tópico descreve o processo de desenvolvimento de um instrumento brasileiro de classificação de risco em pediatria, CLARIPED, a partir do consenso entre especialistas e pré-testes. Justificou-se a escolha da Escala Sul Africana de Triagem como referência, pela sua simplicidade e objetividade e pela semelhança socioeconômica e demográfica entre os dois países. Introduziram-se várias modificações, mantendo-se a mesma logística do processo de triagem em duas etapas: aferição de parâmetros fisiológicos e verificação da presença de discriminadores de urgência. O sexto tópico se refere ao estudo prospectivo de validade e confiabilidade do CLARIPED no setor de emergência pediátrica de um hospital terciário brasileiro, no período de abril a julho de 2013. Uma boa validade de construto convergente foi confirmada pela associação entre os níveis de urgência atribuídos pelo CLARIPED e os desfechos evolutivos utilizados como proxies de urgência (utilização de recursos, hospitalização, admissão na sala de observação e tempo de permanência no setor de emergência). A comparação entre o CLARIPED e o padrão de referência mostrou boa sensibilidade de 0,89 (IC95%=0,78-0,95) e especificidade de 0,98 (IC95%=0,97-0,99) para diagnosticar elevada urgência. A confiabilidade interobservadores, resultou num kappa ponderado quadrático substancial de 0,75 (IC95%: 0,74-0,79). O sétimo e último tópico tece considerações finais sobre dois aspectos: a insuficiência de evidências científicas sobre os sistemas de triagem na população pediátrica e a oportunidade e relevância de se desenvolver um sistema brasileiro de classificação de risco para urgências e emergências pediátricas, válido e confiável, com possibilidades de adoção em âmbito nacional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diversas das possíveis aplicações da robótica de enxame demandam que cada robô seja capaz de estimar a sua posição. A informação de localização dos robôs é necessária, por exemplo, para que cada elemento do enxame possa se posicionar dentro de uma formatura de robôs pré-definida. Da mesma forma, quando os robôs atuam como sensores móveis, a informação de posição é necessária para que seja possível identificar o local dos eventos medidos. Em virtude do tamanho, custo e energia dos dispositivos, bem como limitações impostas pelo ambiente de operação, a solução mais evidente, i.e. utilizar um Sistema de Posicionamento Global (GPS), torna-se muitas vezes inviável. O método proposto neste trabalho permite que as posições absolutas de um conjunto de nós desconhecidos sejam estimadas, com base nas coordenadas de um conjunto de nós de referência e nas medidas de distância tomadas entre os nós da rede. A solução é obtida por meio de uma estratégia de processamento distribuído, onde cada nó desconhecido estima sua própria posição e ajuda os seus vizinhos a calcular as suas respectivas coordenadas. A solução conta com um novo método denominado Multi-hop Collaborative Min-Max Localization (MCMM), ora proposto com o objetivo de melhorar a qualidade da posição inicial dos nós desconhecidos em caso de falhas durante o reconhecimento dos nós de referência. O refinamento das posições é feito com base nos algoritmos de busca por retrocesso (BSA) e de otimização por enxame de partículas (PSO), cujos desempenhos são comparados. Para compor a função objetivo, é introduzido um novo método para o cálculo do fator de confiança dos nós da rede, o Fator de Confiança pela Área Min-Max (MMA-CF), o qual é comparado com o Fator de Confiança por Saltos às Referências (HTA-CF), previamente existente. Com base no método de localização proposto, foram desenvolvidos quatro algoritmos, os quais são avaliados por meio de simulações realizadas no MATLABr e experimentos conduzidos em enxames de robôs do tipo Kilobot. O desempenho dos algoritmos é avaliado em problemas com diferentes topologias, quantidades de nós e proporção de nós de referência. O desempenho dos algoritmos é também comparado com o de outros algoritmos de localização, tendo apresentado resultados 40% a 51% melhores. Os resultados das simulações e dos experimentos demonstram a eficácia do método proposto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em 1828 foi observado um fenômeno no microscópio em que se visualizava minúsculos grãos de pólen mergulhados em um líquido em repouso que mexiam-se de forma aleatória, desenhando um movimento desordenado. A questão era compreender este movimento. Após cerca de 80 anos, Einstein (1905) desenvolveu uma formulação matemática para explicar este fenômeno, tratado por movimento Browniano, teoria cada vez mais desenvolvida em muitas das áreas do conhecimento, inclusive recentemente em modelagem computacional. Objetiva-se pontuar os pressupostos básicos inerentes ao passeio aleatório simples considerando experimentos com e sem problema de valor de contorno para melhor compreensão ao no uso de algoritmos aplicados a problemas computacionais. Foram explicitadas as ferramentas necessárias para aplicação de modelos de simulação do passeio aleatório simples nas três primeiras dimensões do espaço. O interesse foi direcionado tanto para o passeio aleatório simples como para possíveis aplicações para o problema da ruína do jogador e a disseminação de vírus em rede de computadores. Foram desenvolvidos algoritmos do passeio aleatório simples unidimensional sem e com o problema do valor de contorno na plataforma R. Similarmente, implementados para os espaços bidimensionais e tridimensionais,possibilitando futuras aplicações para o problema da disseminação de vírus em rede de computadores e como motivação ao estudo da Equação do Calor, embora necessita um maior embasamento em conceitos da Física e Probabilidade para dar continuidade a tal aplicação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho procura identificar e discutir aspectos da formação inicial que estejam relacionados com o ensino de evolução biológica no curso de licenciatura plena em Ciências Biológicas da Faculdade de Formação de Professores da Universidade do Estado do Rio de Janeiro. A evolução biológica é considerada tanto por vários estudiosos como por documentos oficiais de educação como um eixo unificador dentro das Ciências Biológicas que, além de interligar as diversas partes que compõem a Biologia, é imprescindível para a compreensão de diversos conceitos e processos biológicos. A coleta de dados foi realizada a partir de entrevistas semiestruturadas aplicadas a quatro docentes do curso, sendo dois responsáveis por disciplinas de conteúdo biológico específico e os outros por disciplinas relacionadas ao ensino de Ciências e Biologia. Os discursos foram analisados a partir da Análise de Conteúdo. Os resultados aqui expostos revelam que o ensino da teoria evolutiva ocupa posição de destaque na formação dos alunos da FFP-UERJ ao longo do curso, contribuindo para a construção de uma visão mais global sobre a Biologia para muitos. As principais dificuldades apontadas para a sua abordagem são a ausência de atividades interdisciplinares como trabalhos de campo; a falta de comunicação entre os docentes do curso sobre o assunto; a falta de maturidade dos alunos para compreender os processos evolutivos; a falta de materiais de apoio em determinadas áreas específicas; e o embate entre as explicações científicas e alguns pontos de vista religiosos sobre a origem da diversidade biológica. A maioria dos docentes apontou as estratégias que utilizam para superar tais empecilhos e incluir o tema em suas disciplinas. O resultado deste esforço é reconhecido por eles mesmos, ao perceber que, ao longo do curso, os alunos desenvolveram capacidade intelectual para relacionar temas de distintos campos através da perspectiva evolutiva.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação apresenta resultados da aplicação de filtros adaptativos, utilizando os algoritmos NLMS (Normalized Least Mean Square) e RLS (Recursive Least Square), para a redução de desvios em previsões climáticas. As discrepâncias existentes entre o estado real da atmosfera e o previsto por um modelo numérico tendem a aumentar ao longo do período de integração. O modelo atmosférico Eta é utilizado operacionalmente para previsão numérica no CPTEC/INPE e como outros modelos atmosféricos, apresenta imprecisão nas previsões climáticas. Existem pesquisas que visam introduzir melhorias no modelo atmosférico Eta e outras que avaliam as previsões e identificam os erros do modelo para que seus produtos sejam utilizados de forma adequada. Dessa forma, neste trabalho pretende-se filtrar os dados provenientes do modelo Eta e ajustá-los, de modo a minimizar os erros entre os resultados fornecidos pelo modelo Eta e as reanálises do NCEP. Assim, empregamos técnicas de processamento digital de sinais e imagens com o intuito de reduzir os erros das previsões climáticas do modelo Eta. Os filtros adaptativos nesta dissertação ajustarão as séries ao longo do tempo de previsão. Para treinar os filtros foram utilizadas técnicas de agrupamento de regiões, como por exemplo o algoritmo de clusterização k-means, de modo a selecionar séries climáticas que apresentem comportamentos semelhantes entre si. As variáveis climáticas estudadas são o vento meridional e a altura geopotencial na região coberta pelo modelo de previsão atmosférica Eta com resolução de 40 km, a um nível de pressão de 250 hPa. Por fim, os resultados obtidos mostram que o filtro com 4 coeficientes, adaptado pelo algoritmo RLS em conjunto com o critério de seleção de regiões por meio do algoritmo k-means apresenta o melhor desempenho ao reduzir o erro médio e a dispersão do erro, tanto para a variável vento meridional quanto para a variável altura geopotencial.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta o projeto e os algoritmos de controle, de um sistema de geração de energia híbrido. Este sistema é formado por conversores de potência conectados em Back-to-Back associados a um arranjo solar fotovoltaico, que por sua vez é conectado no lado CC dos conversores. Em relação ao sistema de geração fotovoltaico, a contribuição consiste no desenvolvimento de cinco algoritmos para determinar o ponto de máxima potência (MPP) do arranjo fotovoltaico. O primeiro algoritmo consiste em uma versão modificada do algoritmo de Perturbar e Observar (PeO); o segundo algoritmo proposto é baseado no método do gradiente (MG); e o terceiro é baseado na otimização do MG (MGO). Porém, são desenvolvidos algoritmos híbridos que combinam rede neural com o método PeO, e rede neural com o algoritmo MGO. O sistema foi desenvolvido e simulado utilizando o Matlab/Simulink, e os resultados de simulação são apresentados com objetivo da avaliar o comportamento do sistema e a resposta dos diferentes algoritmos. Esta resposta foi avaliada para condições transitórias e de regime permanente, considerando diferentes requisitos de consumo na carga, irradiância e temperatura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No presente trabalho foram desenvolvidos modelos de classificação aplicados à mineração de dados climáticos para a previsão de eventos extremos de precipitação com uma hora de antecedência. Mais especificamente, foram utilizados dados observacionais registrados pela estação meteorológica de superfície localizada no Instituto Politécnico da Universidade do Estado do Rio de Janeiro em Nova Friburgo RJ, durante o período de 2008 a 2012. A partir desses dados foi aplicado o processo de Descoberta de Conhecimento em Banco de Dados (KDD Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós processamento dos dados. Com base no uso de algoritmos de Redes Neurais Artificiais e Árvores de Decisão para a extração de padrões que indicassem um acúmulo de precipitação maior que 10 mm na hora posterior à medição das variáveis climáticas, pôde-se notar que a utilização da observação meteorológica de micro escala para previsões de curto prazo é suscetível a altas taxas de alarmes falsos (falsos positivos). Para contornar este problema, foram utilizados dados históricos de previsões realizadas pelo Modelo Eta com resolução de 15 km, disponibilizados pelo Centro de Previsão de Tempo e Estudos Climáticos do Instituto Nacional de Pesquisas Espaciais CPTEC/INPE. De posse desses dados, foi possível calcular os índices de instabilidade relacionados à formação de situação convectiva severa na região de Nova Friburgo e então armazená-los de maneira estruturada em um banco de dados, realizando a união entre os registros de micro e meso escala. Os resultados demonstraram que a união entre as bases de dados foi de extrema importância para a redução dos índices de falsos positivos, sendo essa uma importante contribuição aos estudos meteorológicos realizados em estações meteorológicas de superfície. Por fim, o modelo com maior precisão foi utilizado para o desenvolvimento de um sistema de alertas em tempo real, que verifica, para a região estudada, a possibilidade de chuva maior que 10 mm na próxima hora.