91 resultados para Algoritmos de minimização
Resumo:
Em várias regiões do mundo, assim como no Brasil, um alto percentual da população e até comunidades inteiras não têm acesso a um sistema de tratamento de esgoto centralizado, sendo comum o uso das fossas sépticas e/ou sumidouros e, em muitos casos, os esgotos são lançados in natura diretamente nos corpos hídricos. Com o objetivo de oferecer uma alternativa tecnológica de baixo custo de implantação e operação com vistas à minimização dos impactos ambientais e em atendimento a pequenas comunidades isoladas e de interesse social, o presente projeto desenvolveu com base em sistemas apresentados na literatura, um ecossistema engenheirado compacto para o tratamento de esgoto domiciliar de pequenos geradores. O sistema é composto por tratamento preliminar (caixa controladora de vazão e caixa de gordura), primário (fossa séptica), secundário (filtro aerado submerso e decantador secundário) e um conjunto de tanques vegetados por macrófitas aquáticas (Eichhornia crassipes, Schoenoplectus sp., Panicum cf. racemosum) intercalados por um tanque de algas para remoção da carga poluidora remanescente e nutrientes. O sistema foi instalado no CEADS/UERJ na Vila de Dois Rios, Ilha Grande, litoral Sul do Rio de Janeiro, operado e monitorado desde Abril de 2009, sendo que o presente estudo referese aos primeiros 200 dias de monitoramento. A remoção da carga poluidora foi monitorada na vazão de 200 L/h, posteriormente corrigida para 52 L/h, almejando alcançar os padrões de lançamento da Resolução CONAMA 357 e a NBR 13969 da ABNT, para os parâmetros de OD, pH, Temperatura, Nitrato, N amoniacal, DBO5, DQO, SSD, Cloreto e, Óleos e Graxas e outros parâmetros não incluídos na Resolução (Cond. Elétrica, COT, Alcalinidade, Dureza, Nitrito, Fósforo total e demais Sólidos (ST, SST, SSV, SSF e SDT ). Os resultados obtidos indicam que o sistema foi mais eficiente quando operado na vazão de 52 L/h, quando apresentou as seguintes taxas de remoção: 96 % (Nitrito); 71 % (Nitrato); 47 % (N amoniacal); 96,7 % (DQO); 95,7 % (DBO5); 10 % (Fósforo total). O sistema apresentou uma evolução ao longo do tempo de operação e após a redução na vazão, garantiu o enquadramento de 12 dos 14 parâmetros analisados (exceto N amoniacal e Fósforo total), nos padrões de lançamento contemplados pela Legislação Federal, CONAMA 357 e Legislação Estadual do RJ, SP, MG e GO. Para aumento da eficiência de tratamento, recomenda-se redimensionamento do filtro aerado submerso-decantador e tanques vegetados, com base nas recomendações do PROSAB 2.
Resumo:
A renderização de volume direta tornou-se uma técnica popular para visualização volumétrica de dados extraídos de fontes como simulações científicas, funções analíticas, scanners médicos, entre outras. Algoritmos de renderização de volume, como o raycasting, produzem imagens de alta qualidade. O seu uso, contudo, é limitado devido à alta demanda de processamento computacional e o alto uso de memória. Nesse trabalho, propomos uma nova implementação do algoritmo de raycasting que aproveita a arquitetura altamente paralela do processador Cell Broadband Engine, com seus 9 núcleos heterogêneos, que permitem renderização eficiente em malhas irregulares de dados. O poder computacional do processador Cell BE demanda um modelo de programação diferente. Aplicações precisam ser reescritas para explorar o potencial completo do processador Cell, que requer o uso de multithreading e código vetorizado. Em nossa abordagem, enfrentamos esse problema distribuindo a computação de cada raio incidente nas faces visíveis do volume entre os núcleos do processador, e vetorizando as operações da integral de iluminação em cada um. Os resultados experimentais mostram que podemos obter bons speedups reduzindo o tempo total de renderização de forma significativa.
Resumo:
Este trabalho estuda a transferência de calor por condução considerando a condutividade térmica como uma função constante por partes da temperatura. Esta relação, embora fisicamente mais realista que supor a condutividade térmica constante, permite obter uma forma explícita bem simples para a inversa da Transformada de Kirchhoff (empregada para tratar a não linearidade do problema). Como exemplo, apresenta-se uma solução exata para um problema com simetria esférica. Em seguida, propôe-se uma formulação variacional (com unicidade demonstrada) que introduz um funcional cuja minimização é equivalente à solução do problema na forma forte. Finalmente compara-se uma solução exata obtida pela inversa da Transformada de Kirchhoff com a solução obtida via formulação variacional.
Resumo:
Métodos de otimização que utilizam condições de otimalidade de primeira e/ou segunda ordem são conhecidos por serem eficientes. Comumente, esses métodos iterativos são desenvolvidos e analisados à luz da análise matemática do espaço euclidiano n-dimensional, cuja natureza é de caráter local. Consequentemente, esses métodos levam a algoritmos iterativos que executam apenas as buscas locais. Assim, a aplicação de tais algoritmos para o cálculo de minimizadores globais de uma função não linear,especialmente não-convexas e multimodais, depende fortemente da localização dos pontos de partida. O método de Otimização Global Topográfico é um algoritmo de agrupamento, que utiliza uma abordagem baseada em conceitos elementares da teoria dos grafos, a fim de gerar bons pontos de partida para os métodos de busca local, a partir de pontos distribuídos de modo uniforme no interior da região viável. Este trabalho tem dois objetivos. O primeiro é realizar uma nova abordagem sobre método de Otimização Global Topográfica, onde, pela primeira vez, seus fundamentos são formalmente descritos e suas propriedades básicas são matematicamente comprovadas. Neste contexto, propõe-se uma fórmula semi-empírica para calcular o parâmetro chave deste algoritmo de agrupamento, e, usando um método robusto e eficiente de direções viáveis por pontos-interiores, estendemos o uso do método de Otimização Global Topográfica a problemas com restrições de desigualdade. O segundo objetivo é a aplicação deste método para a análise de estabilidade de fase em misturas termodinâmicas,o qual consiste em determinar se uma dada mistura se apresenta em uma ou mais fases. A solução deste problema de otimização global é necessária para o cálculo do equilíbrio de fases, que é um problema de grande importância em processos da engenharia, como, por exemplo, na separação por destilação, em processos de extração e simulação da recuperação terciária de petróleo, entre outros. Além disso, afim de ter uma avaliação inicial do potencial dessa técnica, primeiro vamos resolver 70 problemas testes, e então comparar o desempenho do método proposto aqui com o solver MIDACO, um poderoso software recentemente introduzido no campo da otimização global.
Resumo:
Dutos de transmissão são tubulações especialmente desenvolvidas para transportar produtos diversos a longas distâncias e representam a forma mais segura e econômica de transporte para grandes quantidades de fluidos. Os dutos de gás natural, denominados gasodutos, são usados para transportar o gás desde os campos de produção até os centros consumidores, onde o gás é inserido em redes de distribuição para entrega aos consumidores finais. Os gasodutos de transporte apresentam diversas características de monopólio natural, que são o principal argumento econômico para sua regulação. A regulação visa garantir que esta atividade seja explorada de maneira eficiente, refletindo em tarifas de transporte justas para os consumidores e que proporcionem o retorno adequado aos investidores, levando-se em consideração a quantidade de gás transportado. Neste contexto, o presente trabalho tem como objetivo propor metodologias de otimização multi-objetivo de projetos de redes de gasodutos de transporte, envolvendo métodos a posteriori. O problema de otimização formulado contempla restrições associadas ao escoamento do gás e o comportamento das estações de compressão. A solução do problema fornece um conjunto de projetos ótimos de redes de transporte em função da maximização da quantidade de gás natural transportado e da minimização da tarifa associada a esse serviço. A ferramenta foi aplicada a diversos estudos de caso com configurações típicas da indústria de transporte de gás natural. Os resultados mostraram que as metodologias propostas são capazes de fornecer subsídios que permitem ao tomador de decisão do ponto de vista regulatório realizar uma análise de trade-off entre a quantidade de gás transportado e a tarifa, buscando assim atender ao interesse da sociedade em relação à exploração do serviço de transporte
Resumo:
Apesar da relevância econômica, a atividade de Exploração e Produção (E&P) é considerada potencialmente causadora de impactos ambientais, dentre estes destaca-se a geração de resíduos sólidos. Neste cenário, estão sendo criados uma série de regulamentações e acordos internacionais cada vez mais restritivos pertinentes a esta temática, dentre estes a Nota Técnica CGPEG/DILIC/IBAMA n 01/11, que estabelece a implementação do Projeto de Controle da Poluição (PCP). Além de marcos regulatórios cada vez mais rígidos, o gerenciamento de resíduos é fundamental para a minimização de impactos ambientais, pois se o mesmo não for realizado de maneira eficiente, pode gerar custos e problemas ambientais e a imagem da empresa pode ficar comprometida através de passivos ambientais. Sendo assim, o presente trabalho visa analisar o processo de Gerenciamento de Resíduos Sólidos gerados em instalações marítimas de perfuração de poços de petróleo, bem como a adequação deste processo à legislação vigente de modo a identificar os principais entraves para a minimização dos efeitos ambientais provocados pela atividade. O estabelecimento de um marco regulatório para controle da poluição dessa atividade definiu novas diretrizes, que levarão a redução dos quantitativos gerados, bem como a adoção de melhores formas para tratamento e disposição dos resíduos. Contudo, o crescimento das atividades de exploração de petróleo deverá ser acompanhado também do desenvolvimento e ampliação do mercado nacional voltado ao transporte, tratamento e disposição final de resíduos, de forma a reduzir ao máximo o impacto ambiental causado por estas atividades.
Resumo:
Este trabalho aborda a aplicação da Geomática no apoio às ações de rápida resposta às emergências ambientais passíveis de ocorrência, nas rodovias do País, por incidentes com produtos perigosos. A cadeia logística nacional de infraestrutura de transporte de carga está apoiada, principalmente, no modal rodoviário, que é responsável por cerca de 60% do volume total transportado. Seguindo essa tendência, a maioria dos produtos perigosos também é transportada através de estradas. Nessas operações, apesar de todas as medidas de segurança empregadas, tanto na embalagem quanto no manuseio, há sempre a possibilidade da ocorrência de incidentes com esse tipo de carga, no deslocamento entre o ponto de partida e o destino final. Diante dessas potenciais ameaças, ficam evidentes os riscos à integridade física e patrimonial das populações lindeiras, bem como ao meio ambiente, no tocante à qualidade das águas superficiais e subterrâneas, do solo e do ar. Este trabalho sugere, com base na integração dos recursos tecnológicos do Sensoriamento Remoto, do Sistema de Posicionamento Global-GPS e do Geoprocessamento, implantar um sistema de informações georreferenciadas que proporcione os elementos necessários às ações de rápida resposta a esses eventos. A estrutura proposta, denominada Bureau de Informações Territoriais, está moldada para proporcionar uma solução para os problemas relacionados com o posicionamento na superfície terrestre, e que engloba os conceitos da Geomática, através da aplicação das suas quatro etapas básicas: coleta de dados, análise de dados, distribuição da informação e uso da informação. Assim, atendendo ao princípio da mobilidade, o projeto visa, ainda, a disponibilizar na tela de um laptop as informações necessárias ao planejamento e à execução das ações, no menor tempo possível. Por outro lado, considerando que o Bureau também proporciona às organizações que participam das ações de combate aos incidentes rodoviários com produtos perigosos as informações necessárias, através de uma conexão à Internet, espera-se a maximização dos benefícios do planejamento das ações preventivas e corretivas de resposta aos sinistros, assim como a minimização dos efeitos desse tipo de evento sobre a população, as propriedades e o meio ambiente.
Resumo:
Diversas das possíveis aplicações da robótica de enxame demandam que cada robô seja capaz de estimar a sua posição. A informação de localização dos robôs é necessária, por exemplo, para que cada elemento do enxame possa se posicionar dentro de uma formatura de robôs pré-definida. Da mesma forma, quando os robôs atuam como sensores móveis, a informação de posição é necessária para que seja possível identificar o local dos eventos medidos. Em virtude do tamanho, custo e energia dos dispositivos, bem como limitações impostas pelo ambiente de operação, a solução mais evidente, i.e. utilizar um Sistema de Posicionamento Global (GPS), torna-se muitas vezes inviável. O método proposto neste trabalho permite que as posições absolutas de um conjunto de nós desconhecidos sejam estimadas, com base nas coordenadas de um conjunto de nós de referência e nas medidas de distância tomadas entre os nós da rede. A solução é obtida por meio de uma estratégia de processamento distribuído, onde cada nó desconhecido estima sua própria posição e ajuda os seus vizinhos a calcular as suas respectivas coordenadas. A solução conta com um novo método denominado Multi-hop Collaborative Min-Max Localization (MCMM), ora proposto com o objetivo de melhorar a qualidade da posição inicial dos nós desconhecidos em caso de falhas durante o reconhecimento dos nós de referência. O refinamento das posições é feito com base nos algoritmos de busca por retrocesso (BSA) e de otimização por enxame de partículas (PSO), cujos desempenhos são comparados. Para compor a função objetivo, é introduzido um novo método para o cálculo do fator de confiança dos nós da rede, o Fator de Confiança pela Área Min-Max (MMA-CF), o qual é comparado com o Fator de Confiança por Saltos às Referências (HTA-CF), previamente existente. Com base no método de localização proposto, foram desenvolvidos quatro algoritmos, os quais são avaliados por meio de simulações realizadas no MATLABr e experimentos conduzidos em enxames de robôs do tipo Kilobot. O desempenho dos algoritmos é avaliado em problemas com diferentes topologias, quantidades de nós e proporção de nós de referência. O desempenho dos algoritmos é também comparado com o de outros algoritmos de localização, tendo apresentado resultados 40% a 51% melhores. Os resultados das simulações e dos experimentos demonstram a eficácia do método proposto.
Resumo:
O objeto deste estudo trata do impacto do ambiente de trabalho no processo de saúde-doença dos trabalhadores de enfermagem de uma unidade ambulatorial especializada da cidade do Rio de Janeiro. Os objetivos foram: identificar os riscos ocupacionais no ambiente laboral dos trabalhadores de enfermagem da unidade em estudo; descrever a percepção do trabalhador de enfermagem sobre os impactos dos riscos ocupacionais em sua saúde; analisar o ambiente laboral destes trabalhadores com vistas à identificação de fatores de riscos que interferem negativamente na saúde; propor medidas de prevenção para minimização de impactos negativos na saúde dos mesmos, com destaque para a elaboração do Mapa de Riscos. Como suporte teórico, foram abordados conceitos e pressupostos relacionados às doenças do trabalho e sua relação com riscos ocupacionais, contextualizando-os com a configuração do mundo do trabalho em saúde, sua organização e processo laboral, assim como as vivências de prazer e sofrimento que podem alterar a saúde dos trabalhadores. Pesquisa exploratória e descritiva, de natureza qualitativa. Os sujeitos foram 40 trabalhadores de enfermagem, incluindo enfermeiros, técnicos e auxiliares de enfermagem. Os instrumentos de coleta foram a entrevista semiestruturada e a observação não participante, aplicados entre março/abril e junho/setembro de 2011, respectivamente. E cruzando as informações coletadas a partir dos dois instrumentos, buscou-se captar dados que possibilitasse a elaboração do Mapa de Risco dos setores com mais problemas em termos de deixar vulnerável a saúde dos trabalhadores, sendo elaborado Mapa de Risco da UCAMB e da CME. Enfatiza-se que houve assinatura prévia do Termo de Consentimento Livre e Esclarecido e que a pesquisa foi aprovada pelo comitê de ética do Hospital Universitário Pedro Ernesto sob número de protocolo 2528. O método de análise escolhido foi do tipo: análise temática de conteúdo, o qual possibilitou o surgimento de três categorias: riscos ocupacionais visíveis e invisíveis para o trabalhador de enfermagem; o processo de adoecimento do trabalhador no e pelo trabalho; melhorias das condições de trabalho: contribuições para proteção da saúde dos trabalhadores. Os resultados evidenciaram que o risco mais freqüentemente revelado foi de acidente, principalmente por materiais perfurocortantes, seguidos de exposição aos riscos biológicos. Porém, houve sujeitos que não perceberam a presença dos riscos ou reduziam a gravidade dos mesmos para o processo saúde-doença. As repercussões dos riscos ocupacionais no corpo dos trabalhadores foram identificadas como: estresse, varizes e distúrbios osteomusculares. Algumas sugestões elaboradas pelos sujeitos para a melhoria das condições de trabalho foram: realização de reformas estruturais, modernização dos equipamentos, incremento quantitativo dos recursos humanos, melhoria na organização do trabalho, implementação de um Núcleo da Saúde do Trabalhador. Considera-se que os objetivos deste estudo foram atingidos, no entanto, existe a clareza de que há muito a ser pesquisado sobre riscos ocupacionais e suas repercussões nos trabalhadores, assim como as intervenções necessárias para a prevenção e promoção da saúde do trabalhador. Sugerem-se novas pesquisas, como também repensar nas estratégias de ensino de formação dos trabalhadores de enfermagem, e também se faz relevante a participação da categoria em movimentos sociais para a construção de políticas públicas nesta área.
Resumo:
Esta pesquisa tem como objeto os fatores que influenciam a mensuração glicêmica realizada pela enfermagem em pacientes que recebem insulina contínua intravenosa utilizando glicosímetros portáteis à beira leito. Vários fatores podem influenciar a mensuração glicêmica, tais como a amostra sanguínea, a calibração do aparelho, a estocagem das fitas-teste, o hematócrito dos pacientes, o uso de vasoaminas e falhas do operador. A partir da Tese de que: A identificação dos fatores que influenciam a mensuração glicêmica realizada pela enfermagem através de glicosímetros é determinante para a eficiência das barreiras de salvaguarda voltadas para a minimização de falhas na sua execução, a fim de garantir resultados glicêmicos confiáveis e, consequentemente, realizar a titulação da insulina com segurança, teve-se como objetivo geral propor ações de enfermagem que funcionem como barreiras para diminuir as falhas nas mensurações glicêmicas realizadas pela enfermagem em pacientes que recebem infusão contínua de insulina. Espera-se contribuir com ações para garantir a adequação e o controle rigoroso da insulina administrada. Estudo observacional, transversal, prospectivo com abordagem quantitativa na análise dos dados, em uma unidade intensiva cirúrgica cardiológica de um hospital público do Rio de Janeiro. As variáveis do estudo foram submetidas a tratamentos estatísticos não paramétricos e às medidas de associação. Foram investigados 42 pacientes com observação de 417 glicemias. Predominaram pacientes do sexo feminino (57,14%), média de idade de 48 (15,85) anos, sem insuficiência renal e sem tratamento dialítico (90,48%). Observou-se PAM com média de 77(10,29) mmHg, uso de vasoaminas (80,95%), PaO2 ≥ 90mmHg em 85,71% e hematócrito <35% em 71,42%. Encontrou-se uma incidência de hipoglicemia de 35,7%, sendo a população dividida em dois grupos, o primeiro (G1) com pacientes que apresentaram hipoglicemia ≤ 60mg/dl (n=15), e o segundo (G2), com pacientes sem hipoglicemia (n=27). O hematócrito baixo foi a característica clínica que apresentou maior associação com a hipoglicemia. Pacientes com esta condição apresentaram 5,60 vezes mais risco de apresentarem hipoglicemia. O uso de vasoaminas elevou 3,3 vezes o risco de hipoglicemia em pacientes com estas medicações. A realização de cirurgias de emergência, a presença de insuficiência renal com tratamento dialítico, e a elevação da PaO2 acima de 90mmHg também apresentaram associação positiva com a hipoglicemia. Das 417 mensurações observadas, predominou o uso de amostra sanguínea de origem arterial. Observou-se que em todas as etapas da técnica de mensuração houve desvio de execução, com exceção de compressão da polpa digital. Os desvios observados que mostraram associação positiva (RR>1) para pacientes com hipoglicemia foram: a falta de calibração do glicosímetro, a falta de verificação da validade/integridade da fita teste, a falta da higienização das mãos e a falta da coleta de até 1 ml de sangue. Construiu-se uma revisão da técnica de mensuração glicêmica com enfoque nos fatores que podem comprometer o resultado glicêmico levando em conta o risco de hipoglicemia. Tornou-se evidente que a compreensão apropriada dos fatores que influenciam a glicemia e a mensuração glicêmica é indispensável para o enfermeiro na obtenção de resultados glicêmicos confiáveis, e assim, evitar erros na titulação das doses de insulina administrada.
Resumo:
Em 1828 foi observado um fenômeno no microscópio em que se visualizava minúsculos grãos de pólen mergulhados em um líquido em repouso que mexiam-se de forma aleatória, desenhando um movimento desordenado. A questão era compreender este movimento. Após cerca de 80 anos, Einstein (1905) desenvolveu uma formulação matemática para explicar este fenômeno, tratado por movimento Browniano, teoria cada vez mais desenvolvida em muitas das áreas do conhecimento, inclusive recentemente em modelagem computacional. Objetiva-se pontuar os pressupostos básicos inerentes ao passeio aleatório simples considerando experimentos com e sem problema de valor de contorno para melhor compreensão ao no uso de algoritmos aplicados a problemas computacionais. Foram explicitadas as ferramentas necessárias para aplicação de modelos de simulação do passeio aleatório simples nas três primeiras dimensões do espaço. O interesse foi direcionado tanto para o passeio aleatório simples como para possíveis aplicações para o problema da ruína do jogador e a disseminação de vírus em rede de computadores. Foram desenvolvidos algoritmos do passeio aleatório simples unidimensional sem e com o problema do valor de contorno na plataforma R. Similarmente, implementados para os espaços bidimensionais e tridimensionais,possibilitando futuras aplicações para o problema da disseminação de vírus em rede de computadores e como motivação ao estudo da Equação do Calor, embora necessita um maior embasamento em conceitos da Física e Probabilidade para dar continuidade a tal aplicação.
Resumo:
O aleitamento é uma prática humana reconhecida como um direito social, e como tal é um direito de todos que deve ser garantido pelo Estado. Apesar desse entendimento presente no arcabouço jurídico, como na Constituição Federal e no Estatuto da Criança e do Adolescente ainda há muitas mulheres e crianças privadas desse direito devido às estruturas organizacionais presentes nos equipamentos sociais, públicos e privados, que deveriam contemplar a condição feminina e proteger o livre exercício do aleitamento materno e não o fazem. O presente estudo buscou compreender a prática da amamentação de mulheres residentes na Região Metropolitana I (Baixada Fluminense), estado do Rio de Janeiro, em seu contexto social, político e econômico. O estudo se apoiou no conceito de privação (exclusão e inclusão injusta) da teoria de justiça de Amartya Sen. Utilizou-se a pesquisa qualitativa, o grupo focal como técnica de coleta de dados e a hermenêutica-dialética como método de análise. A etapa de campo foi realizada em três municípios da região estudada e ao todo foram realizados cinco grupos focais. Os sujeitos do estudo foram 29 mulheres com idade entre 17 e 49 anos, residentes na região e que vivenciaram a amamentação em condições de algum tipo de privação de direitos. Como resultado do estudo foram construídas duas categorias: 1. Instituições e desigualdades: a experiência da mulher que amamenta, e 2. Posicionalidade e condição de agente: amamentação como uma prática feminina. A primeira categoria se ocupou de descrever o direito como se apresenta na realidade concreta das mulheres que amamentam; a segunda categoria traz uma reflexão sobre o lugar que a mulher ocupa afetando sua condição de agente. A escolha de Amartya Sen como teórico para compreender a prática da amamentação de mulheres que vivenciam privações encontra identificação neste estudo, por se tratar de uma teoria de justiça que parte das injustiças impactantes e não de teorizações acerca da economia e dos sistemas políticos. Sendo as pessoas o foco da atenção, o autor está interessado na eliminação ou minimização dos efeitos das injustiças sentidas por estas e que tanto afetam seu desenvolvimento. Não há como chegar à justiça sem falar em instituições justas, uma vez que o alargamento das liberdades como fundamento da justiça requer de igual forma a ampliação das oportunidades e nessa questão as políticas públicas têm importante contribuição a dar à efetivação dos direitos e redução das desigualdades. Cabe, portanto, aos diferentes atores sociais o enfrentamento das iniquidades por meio de maior participação política e social numa perspectiva de agência em que se busca transformação no coletivo e para o coletivo e não apenas na perspectiva de bem-estar, paciente das benesses dos programas sociais.
Resumo:
Esta dissertação apresenta resultados da aplicação de filtros adaptativos, utilizando os algoritmos NLMS (Normalized Least Mean Square) e RLS (Recursive Least Square), para a redução de desvios em previsões climáticas. As discrepâncias existentes entre o estado real da atmosfera e o previsto por um modelo numérico tendem a aumentar ao longo do período de integração. O modelo atmosférico Eta é utilizado operacionalmente para previsão numérica no CPTEC/INPE e como outros modelos atmosféricos, apresenta imprecisão nas previsões climáticas. Existem pesquisas que visam introduzir melhorias no modelo atmosférico Eta e outras que avaliam as previsões e identificam os erros do modelo para que seus produtos sejam utilizados de forma adequada. Dessa forma, neste trabalho pretende-se filtrar os dados provenientes do modelo Eta e ajustá-los, de modo a minimizar os erros entre os resultados fornecidos pelo modelo Eta e as reanálises do NCEP. Assim, empregamos técnicas de processamento digital de sinais e imagens com o intuito de reduzir os erros das previsões climáticas do modelo Eta. Os filtros adaptativos nesta dissertação ajustarão as séries ao longo do tempo de previsão. Para treinar os filtros foram utilizadas técnicas de agrupamento de regiões, como por exemplo o algoritmo de clusterização k-means, de modo a selecionar séries climáticas que apresentem comportamentos semelhantes entre si. As variáveis climáticas estudadas são o vento meridional e a altura geopotencial na região coberta pelo modelo de previsão atmosférica Eta com resolução de 40 km, a um nível de pressão de 250 hPa. Por fim, os resultados obtidos mostram que o filtro com 4 coeficientes, adaptado pelo algoritmo RLS em conjunto com o critério de seleção de regiões por meio do algoritmo k-means apresenta o melhor desempenho ao reduzir o erro médio e a dispersão do erro, tanto para a variável vento meridional quanto para a variável altura geopotencial.
Resumo:
Este trabalho apresenta o projeto e os algoritmos de controle, de um sistema de geração de energia híbrido. Este sistema é formado por conversores de potência conectados em Back-to-Back associados a um arranjo solar fotovoltaico, que por sua vez é conectado no lado CC dos conversores. Em relação ao sistema de geração fotovoltaico, a contribuição consiste no desenvolvimento de cinco algoritmos para determinar o ponto de máxima potência (MPP) do arranjo fotovoltaico. O primeiro algoritmo consiste em uma versão modificada do algoritmo de Perturbar e Observar (PeO); o segundo algoritmo proposto é baseado no método do gradiente (MG); e o terceiro é baseado na otimização do MG (MGO). Porém, são desenvolvidos algoritmos híbridos que combinam rede neural com o método PeO, e rede neural com o algoritmo MGO. O sistema foi desenvolvido e simulado utilizando o Matlab/Simulink, e os resultados de simulação são apresentados com objetivo da avaliar o comportamento do sistema e a resposta dos diferentes algoritmos. Esta resposta foi avaliada para condições transitórias e de regime permanente, considerando diferentes requisitos de consumo na carga, irradiância e temperatura.
Resumo:
No presente trabalho foram desenvolvidos modelos de classificação aplicados à mineração de dados climáticos para a previsão de eventos extremos de precipitação com uma hora de antecedência. Mais especificamente, foram utilizados dados observacionais registrados pela estação meteorológica de superfície localizada no Instituto Politécnico da Universidade do Estado do Rio de Janeiro em Nova Friburgo RJ, durante o período de 2008 a 2012. A partir desses dados foi aplicado o processo de Descoberta de Conhecimento em Banco de Dados (KDD Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós processamento dos dados. Com base no uso de algoritmos de Redes Neurais Artificiais e Árvores de Decisão para a extração de padrões que indicassem um acúmulo de precipitação maior que 10 mm na hora posterior à medição das variáveis climáticas, pôde-se notar que a utilização da observação meteorológica de micro escala para previsões de curto prazo é suscetível a altas taxas de alarmes falsos (falsos positivos). Para contornar este problema, foram utilizados dados históricos de previsões realizadas pelo Modelo Eta com resolução de 15 km, disponibilizados pelo Centro de Previsão de Tempo e Estudos Climáticos do Instituto Nacional de Pesquisas Espaciais CPTEC/INPE. De posse desses dados, foi possível calcular os índices de instabilidade relacionados à formação de situação convectiva severa na região de Nova Friburgo e então armazená-los de maneira estruturada em um banco de dados, realizando a união entre os registros de micro e meso escala. Os resultados demonstraram que a união entre as bases de dados foi de extrema importância para a redução dos índices de falsos positivos, sendo essa uma importante contribuição aos estudos meteorológicos realizados em estações meteorológicas de superfície. Por fim, o modelo com maior precisão foi utilizado para o desenvolvimento de um sistema de alertas em tempo real, que verifica, para a região estudada, a possibilidade de chuva maior que 10 mm na próxima hora.