138 resultados para Simulação de chuva
Resumo:
A análise de gases dissolvidos tem sido aplicada há décadas como a principal técnica de manutenção preditiva para diagnosticar defeitos incipientes em transformadores de potência, tendo em vista que a decomposição do óleo mineral isolante produz gases que permanecem dissolvidos na fase líquida. Entretanto, apesar da importância desta técnica, os métodos de diagnóstico mais conhecidos são baseados em constatações de modelos termodinâmicos e composicionais simplificados para a decomposição térmica do óleo mineral isolante, em conjunto com dados empíricos. Os resultados de simulação obtidos a partir desses modelos não reproduzem satisfatoriamente os dados empíricos. Este trabalho propõe um modelo termodinâmico flexível aprimorado para mimetizar o efeito da cinética de formação de sólidos como restrição ao equilíbrio e seleciona, entre quatro modelos composicionais, aquele que apresenta o melhor desempenho na simulação da decomposição térmica do óleo mineral isolante. Os resultados de simulação obtidos a partir do modelo proposto apresentaram uma melhor adequação a dados empíricos do que aqueles obtidos a partir dos modelos clássicos. O modelo propostofoi, ainda, aplicado ao desenvolvimento de um método de diagnóstico com base fenomenológica.Os desempenhos desta nova proposta fenomenológica e de métodos clássicos de diagnóstico por análise de gases dissolvidos foram comparados e discutidos; o método proposto alcançou desempenho superior a vários métodos usualmente empregados nessa área do conhecimento. E, ainda, um procedimento geral para a aplicação do novo método de diagnóstico é descrito
Resumo:
No presente trabalho foram desenvolvidos modelos de classificação aplicados à mineração de dados climáticos para a previsão de eventos extremos de precipitação com uma hora de antecedência. Mais especificamente, foram utilizados dados observacionais registrados pela estação meteorológica de superfície localizada no Instituto Politécnico da Universidade do Estado do Rio de Janeiro em Nova Friburgo RJ, durante o período de 2008 a 2012. A partir desses dados foi aplicado o processo de Descoberta de Conhecimento em Banco de Dados (KDD Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós processamento dos dados. Com base no uso de algoritmos de Redes Neurais Artificiais e Árvores de Decisão para a extração de padrões que indicassem um acúmulo de precipitação maior que 10 mm na hora posterior à medição das variáveis climáticas, pôde-se notar que a utilização da observação meteorológica de micro escala para previsões de curto prazo é suscetível a altas taxas de alarmes falsos (falsos positivos). Para contornar este problema, foram utilizados dados históricos de previsões realizadas pelo Modelo Eta com resolução de 15 km, disponibilizados pelo Centro de Previsão de Tempo e Estudos Climáticos do Instituto Nacional de Pesquisas Espaciais CPTEC/INPE. De posse desses dados, foi possível calcular os índices de instabilidade relacionados à formação de situação convectiva severa na região de Nova Friburgo e então armazená-los de maneira estruturada em um banco de dados, realizando a união entre os registros de micro e meso escala. Os resultados demonstraram que a união entre as bases de dados foi de extrema importância para a redução dos índices de falsos positivos, sendo essa uma importante contribuição aos estudos meteorológicos realizados em estações meteorológicas de superfície. Por fim, o modelo com maior precisão foi utilizado para o desenvolvimento de um sistema de alertas em tempo real, que verifica, para a região estudada, a possibilidade de chuva maior que 10 mm na próxima hora.
Resumo:
Desde a década de 1960, devido à pertinência para a indústria petrolífera, a simulação numérica de reservatórios de petróleo tornou-se uma ferramenta usual e uma intensa área de pesquisa. O principal objetivo da modelagem computacional e do uso de métodos numéricos, para a simulação de reservatórios de petróleo, é o de possibilitar um melhor gerenciamento do campo produtor, de maneira que haja uma maximização na recuperação de hidrocarbonetos. Este trabalho tem como objetivo principal paralelizar, empregando a interface de programação de aplicativo OpenMP (Open Multi-Processing), o método numérico utilizado na resolução do sistema algébrico resultante da discretização da equação que descreve o escoamento monofásico em um reservatório de gás, em termos da variável pressão. O conjunto de equações governantes é formado pela equação da continuidade, por uma expressão para o balanço da quantidade de movimento e por uma equação de estado. A Equação da Difusividade Hidráulica (EDH), para a variável pressão, é obtida a partir deste conjunto de equações fundamentais, sendo então discretizada pela utilização do Método de Diferenças Finitas, com a escolha por uma formulação implícita. Diferentes testes numéricos são realizados a fim de estudar a eficiência computacional das versões paralelizadas dos métodos iterativos de Jacobi, Gauss-Seidel, Sobre-relaxação Sucessiva, Gradientes Conjugados (CG), Gradiente Biconjugado (BiCG) e Gradiente Biconjugado Estabilizado (BiCGStab), visando a uma futura aplicação dos mesmos na simulação de reservatórios de gás. Ressalta-se que a presença de heterogeneidades na rocha reservatório e/ou às não-linearidades presentes na EDH para o escoamento de gás aumentam a necessidade de métodos eficientes do ponto de vista de custo computacional, como é o caso de estratégias usando OpenMP.
Resumo:
As pontes rodoviárias de concreto armado estão sujeitas às ações dinâmicas variáveis devido ao tráfego de veículos sobre o tabuleiro. Estas ações dinâmicas podem gerar o surgimento das fraturas ou mesmo a sua propagação na estrutura. A correta consideração destes aspectos objetivou o desenvolvimento de um estudo, de forma a avaliar os esforços do tráfego de veículos pesados sobre o tabuleiro. As técnicas para a contagem de ciclos de esforços e a aplicação das regras de dano acumulado foram analisadas através das curvas S-N de diversas normas estudadas. A ponte rodoviária investigada é constituída por quatro vigas longitudinais, três transversinas e por um tabuleiro de concreto armado. O modelo computacional, desenvolvido para a análise dinâmica da ponte, foi concebido com base no emprego de técnicas usuais de discretização através do método dos elementos finitos. O modelo estrutural da obra de arte rodoviária estudada foi simulado com base no emprego de elementos finitos sólidos tridimensionais. Os veículos são representados a partir de sistemas massa-mola-amortecedor. O tráfego dessas viaturas é considerado mediante a simulação de comboios semi-infinitos, deslocando-se com velocidade constante sobre o tabuleiro da ponte. As conclusões deste trabalho versam acerca da vida útil de serviço dos elementos estruturais de pontes rodoviárias de concreto armado submetidas às ações dinâmicas provenientes do tráfego de veículos pesados sobre o tabuleiro.
Resumo:
Os principais constituintes do ar, nitrogênio, oxigênio e argônio, estão cada vez mais presentes nas indústrias, onde são empregados nos processos químicos, para o transporte de alimentos e processamento de resíduos. As duas principais tecnologias para a separação dos componentes do ar são a adsorção e a destilação criogênica. Entretanto, para ambos os processos é necessário que os contaminantes do ar, como o gás carbônico, o vapor dágua e hidrocarbonetos, sejam removidos para evitar problemas operacionais e de segurança. Desta forma, o presente trabalho trata do estudo do processo de pré-purificação de ar utilizando adsorção. Neste sistema a corrente de ar flui alternadamente entre dois leitos adsorvedores para produzir ar purificado continuamente. Mais especificamente, o foco da dissertação corresponde à investigação do comportamento de unidades de pré-purificação tipo PSA (pressure swing adsorption), onde a etapa de dessorção é realizada pela redução da pressão. A análise da unidade de pré-purificação parte da modelagem dos leitos de adsorção através de um sistema de equações diferenciais parciais de balanço de massa na corrente gasosa e no leito. Neste modelo, a relação de equilíbrio relativa à adsorção é descrita pela isoterma de Dubinin-Astakhov estendida para misturas multicomponentes. Para a simulação do modelo, as derivadas espaciais são discretizadas via diferenças finitas e o sistema de equações diferenciais ordinárias resultante é resolvido por um solver apropriado (método das linhas). Para a simulação da unidade em operação, este modelo é acoplado a um algoritmo de convergência relativo às quatro etapas do ciclo de operação: adsorção, despressurização, purga e dessorção. O algoritmo em questão deve garantir que as condições finais da última etapa são equivalentes às condições iniciais da primeira etapa (estado estacionário cíclico). Desta forma, a simulação foi implementada na forma de um código computacional baseado no ambiente de programação Scilab (Scilab 5.3.0, 2010), que é um programa de distribuição gratuita. Os algoritmos de simulação de cada etapa individual e do ciclo completo são finalmente utilizados para analisar o comportamento da unidade de pré-purificação, verificando como o seu desempenho é afetado por alterações nas variáveis de projeto ou operacionais. Por exemplo, foi investigado o sistema de carregamento do leito que mostrou que a configuração ideal do leito é de 50% de alumina seguido de 50% de zeólita. Variáveis do processo foram também analisadas, a pressão de adsorção, a vazão de alimentação e o tempo do ciclo de adsorção, mostrando que o aumento da vazão de alimentação leva a perda da especificação que pode ser retomada reduzindo-se o tempo do ciclo de adsorção. Mostrou-se também que uma pressão de adsorção maior leva a uma maior remoção de contaminantes.
Resumo:
Os modelos de dispersão de ar têm sido utilizados amplamente para investigação de padrões de dispersão, comportamento de emissões, estimativas de potenciais riscos a saúde humana, elaboração de propostas de gerenciamento ambiental e, também, na previsão de impacto da qualidade do ar. Alguns modelos, homologados por agência de regulação de alguns países ou comunidades, servem de base para as análises de risco com auxílio de simulação. Somente após este tipo de análise uma unidade fabril terá direito à sua instalação e operação nestes países. Nesta dissertação, serão abordados os principais poluentes presentes em uma indústria petroquímica básica, uma revisão sobre os principais tipos de modelos existentes no mercado e um estudo de caso será realizado empregando os modelos AERMOD e OZIPR/SAPRC. A indústria petroquímica básica a servir de modelo será o Complexo Petroquímico do Rio de Janeiro, que deverá ser instalado no município de Itaboraí e com operação prevista para o ano de 2012. De acordo com as simulações realizadas neste trabalho, o poluente NOx apresentou os resultados mais críticos violando em algumas áreas os padrões primários e secundários de emissão. Diante deste fato, o ozônio se tornou um poluente secundário importante a ser analisado. E para sua simulação, premissas tiveram que ser tomadas, devido a ausência de dados, criando cenários que apresentaram resultados díspares: Ora violando os limites, ora se mantendo abaixo deles. Apesar disso, estes cenários apontaram a mesma solução para minimizar esta formação de ozônio: controlar as emissões de compostos orgânicos voláteis.
Resumo:
Neste trabalho, é proposta uma nova família de métodos a ser aplicada à otimização de problemas multimodais. Nestas técnicas, primeiramente são geradas soluções iniciais com o intuito de explorar o espaço de busca. Em seguida, com a finalidade de encontrar mais de um ótimo, estas soluções são agrupadas em subespaços utilizando um algoritmo de clusterização nebulosa. Finalmente, são feitas buscas locais através de métodos determinísticos de otimização dentro de cada subespaço gerado na fase anterior com a finalidade de encontrar-se o ótimo local. A família de métodos é formada por seis variantes, combinando três esquemas de inicialização das soluções na primeira fase e dois algoritmos de busca local na terceira. A fim de que esta nova família de métodos possa ser avaliada, seus constituintes são comparados com outras metodologias utilizando problemas da literatura e os resultados alcançados são promissores.
Resumo:
O objetivo deste estudo foi comparar in vitro o desgaste dental de pré-molares (PM) e molares (M) e sua relação com o valor de dureza Vickers dos materiais utilizados como antagonistas em uma máquina de abrasão simulada para provocar o desgaste nos dentes testados. Os materiais antagonistas utilizados foram VeraBond II (liga de Ni-Cr), Solidex (resina composta) e IPS Empress 2 (cerâmica). Para cada ensaio de dureza, foram preparados seis corpos-de-prova de cada material, os quais foram polidos sob refrigeração, com ciclo de 20 min para cada granulação. Num microdurômetro (HMV-2), foram realizadas três mossas por quadrante, cada uma sob carga de 19,614 N por 30 s, totalizando 12 mossas de base quadrada com ângulo de 136 entre os planos. O teste de abrasão foi realizado numa máquina simuladora de abrasão, freqüência de 265 ciclos/min e 4,4 Hz, com um percurso do antagonista de 10 mm à velocidade de 88 mm/s. Cada dente foi testado em oposição a um antagonista (foram 6 pares dente/material para cada grupo), em água deionizada, sob carga de 5 N, por 150 min, num total de 39.750 ciclos. Foram utilizados dezenove dentes 1 pré-molares, dezenove 3 molares e confeccionados doze antagonistas em cada material em forma de pastilha. Cada grupo de seis dentes foi testado em oposição a seis antagonistas do mesmo material. Ademais, um dente 1 pré-molar (PM) e um dente 3 molar (M) foram testados em oposição ao Plexiglass. Com relação ao desgaste do esmalte dentário (PM+M) segundo o material antagonista, o teste de Kruskal-Wallis evidenciou diferença significativa com p-valor < 0,001 e o teste de Mann-Whitney evidenciou diferença significativa nas comparações PM+M/resina X PM+M/metal (p-valor < 0,001), PM+M/resina X PM+M/cerâmica (p-valor < 0,001) e PM+M/metal X PM+M/cerâmica (p-valor = 0,002). A análise isolada, considerando pré-molares e molares separadamente, encontrou diferença significativa em relação ao desgaste do esmalte dentário no teste de Kruskall-Wallis, porém não detectou diferença significativa no teste de comparação múltipla Mann-Whitney quando comparou o desgaste sofrido pelo PM/metal em relação ao PM/cerâmica. Em relação à dureza Vickers detectou-se diferença significativa da dureza dos materiais no teste de Kruskall-Wallis (p-valor < 0,001) e também no teste de Mann-Whitney nas comparações múltiplas com p-valor = 0,002. Comparando-se a dureza com a perfilometria, observou-se uma correlação estatisticamente significativa (p ≤ 0,05) na correlação negativa (ρ= -0,829) entre a dureza do metal como material antagonista e o desgaste do esmalte dentário do dente molar. Os resultados sugeriram que todo material restaurador indireto estudado causou desgaste ao esmalte dentário quando submetido a forças de simulação de abrasão com carga. Embora tenha sido observada correlação entre dureza e resistência à abrasão, essa correlação foi pouco significativa.
Análise global da estabilidade termodinâmica de misturas: um estudo com o método do conjunto gerador
Resumo:
O cálculo do equilíbrio de fases é um problema de grande importância em processos da engenharia, como, por exemplo, na separação por destilação, em processos de extração e simulação da recuperação terciária de petróleo, entre outros. Mas para resolvê-lo é aconselhável que se estude a priori a estabilidade termodinâmica do sistema, a qual consiste em determinar se uma dada mistura se apresenta em uma ou mais fases. Tal problema pode ser abordado como um problema de otimização, conhecido como a minimização da função distância do plano tangente à energia livre de Gibbs molar, onde modelos termodinâmicos, de natureza não convexa e não linear, são utilizados para descrevê-lo. Esse fato tem motivado um grande interesse em técnicas de otimização robustas e eficientes para a resolução de problemas relacionados com a termodinâmica do equilíbrio de fases. Como tem sido ressaltado na literatura, para proporcionar uma completa predição do equilíbrio de fases, faz-se necessário não apenas a determinação do minimizador global da função objetivo do teste de estabilidade, mas também a obtenção de todos os seus pontos estacionários. Assim, o desenvolvimento de metodologias para essa tarefa desafiadora tem se tornado uma nova área de pesquisa da otimização global aplicada à termodinâmica do equilíbrio, com interesses comuns na engenharia química e na engenharia do petróleo. O foco do presente trabalho é uma nova metodologia para resolver o problema do teste de estabilidade. Para isso, usa-se o chamado método do conjunto gerador para realizar buscas do tipo local em uma rede de pontos previamente gerada por buscas globais efetuadas com uma metaheurística populacional, no caso o método do enxame de partículas.Para se obter mais de um ponto estacionário, minimizam-se funções de mérito polarizadas, cujos pólos são os pontos previamente encontrados. A metodologia proposta foi testada na análise de quatorze misturas polares previamente consideradas na literatura. Os resultados mostraram que o método proposto é robusto e eficiente a ponto de encontrar, além do minimizador global, todos os pontos estacionários apontados previamente na literatura, sendo também capaz de detectar, em duas misturas ternárias estudadas, pontos estacionários não obtidos pelo chamado método de análise intervalar, uma técnica confiável e muito difundida na literatura. A análise do teste de estabilidade pela simples utilização do método do enxame de partículas associado à técnica de polarização mencionada acima, para a obtenção de mais de um ponto estacionário (sem a busca local feita pelo método do conjunto gerador em uma dada rede de pontos), constitui outra metodologia para a resolução do problema de interesse. Essa utilização é uma novidade secundária deste trabalho. Tal metodologia simplificada exibiu também uma grande robustez, sendo capaz de encontrar todos os pontos estacionários pesquisados. No entanto, quando comparada com a abordagem mais geral proposta aqui, observou-se que tal simplificação pode, em alguns casos onde a função de mérito apresenta uma geometria mais complexa, consumir um tempo de máquina relativamente grande, dessa forma é menos eficiente.
Resumo:
Os métodos numéricos convencionais, baseados em malhas, têm sido amplamente aplicados na resolução de problemas da Dinâmica dos Fluidos Computacional. Entretanto, em problemas de escoamento de fluidos que envolvem superfícies livres, grandes explosões, grandes deformações, descontinuidades, ondas de choque etc., estes métodos podem apresentar algumas dificuldades práticas quando da resolução destes problemas. Como uma alternativa viável, existem os métodos de partículas livre de malhas. Neste trabalho é feita uma introdução ao método Lagrangeano de partículas, livre de malhas, Smoothed Particle Hydrodynamics (SPH) voltado para a simulação numérica de escoamentos de fluidos newtonianos compressíveis e quase-incompressíveis. Dois códigos numéricos foram desenvolvidos, uma versão serial e outra em paralelo, empregando a linguagem de programação C/C++ e a Compute Unified Device Architecture (CUDA), que possibilita o processamento em paralelo empregando os núcleos das Graphics Processing Units (GPUs) das placas de vídeo da NVIDIA Corporation. Os resultados numéricos foram validados e a eficiência computacional avaliada considerandose a resolução dos problemas unidimensionais Shock Tube e Blast Wave e bidimensional da Cavidade (Shear Driven Cavity Problem).
Resumo:
Para qualquer sistema observado, físico ou qualquer outro, geralmente se deseja fazer predições para sua evolução futura. Algumas vezes, muito pouco é conhecido sobre o sistema. Se uma série temporal é a única fonte de informação no sistema, predições de valores futuros da série requer uma modelagem da lei da dinâmica do sistema, talvez não linear. Um interesse em particular são as capacidades de previsão do modelo global para análises de séries temporais. Isso pode ser um procedimento muito complexo e computacionalmente muito alto. Nesta dissertação, nos concetraremos em um determinado caso: Em algumas situações, a única informação que se tem sobre o sistema é uma série sequencial de dados (ou série temporal). Supondo que, por detrás de tais dados, exista uma dinâmica de baixa dimensionalidade, existem técnicas para a reconstrução desta dinâmica.O que se busca é desenvolver novas técnicas para poder melhorar o poder de previsão das técnicas já existentes, através da programação computacional em Maple e C/C++.
Resumo:
O presente trabalho trata do estudo, por meio de simulação de Monte Carlo, de correlações entre variáveis cinemáticas nas topologias de difração simples e de dupla troca de pomeron com vista a delimitar e estudar o espaço de fase referente às topologias citadas, em especial no que se refere á produção inclusiva de dijatos no contexto do experimento CMS/LHC. Será também apresentada uma análise da produção, por difração simples, de dijatos inclusivos a energia no centro de massa √s = 14 TeV (também por simulação de Monte Carlo), na qual estabelecemos um procedimento, a ser usado com dados, para a observação desse tipo de processo. Ainda analisamos a influência de diversos valores da probabilidade de sobrevivência do intervalo de rapidez, [|S|], nos resultados, de forma que com 10 pb -1 de dados acumulados, uma simples observação da produção de dijatos difrativos inclusivos, pelo método proposto, pode vir a excluir valores muito pequenos de [|S|].
Resumo:
Neste trabalho estudamos as características das distribuições da lacuna de rapidez em amostras de eventos de minimum bias de colisões pp a ps=7 TeV no CMS/LHC. Tais eventos são constituídos por processos difrativos, além de processos de QCD mole. São investigados o tamanho e a localização das lacunas, assim como as correlações entre as distribuições obtidas a partir dos objetos reconstruídos no detector e as distribuições obtidas a partir das partículas geradas via simulação Monte Carlo. Uma boa compreensão dessas distribuições pode, eventualmente, possibilitar a caracterização de eventos difrativos nos dados.
Resumo:
As pontes rodoviárias mistas (aço-concreto) estão sujeitadas às ações dinâmicas variáveis, por exemplo, devido ao tráfego de veículos sobre a superfície irregular do pavimento. Estas ações dinâmicas podem gerar a nucleação de fraturas ou mesmo a sua propagação sobre a estrutura. A correta consideração desses aspectos objetivou o desenvolvimento de uma metodologia de análise, com a finalidade de avaliar os níveis dos esforços e tensões oriundos do tráfego dos veículos sobre a superfície irregular do pavimento e, bem como, proceder uma verificação à fadiga de obras de arte rodoviárias em aço e mistas (aço-concreto). Para tal, as técnicas para a contagem de ciclos de tensão e a aplicação das regras de dano acumulado foram analisadas através de curvas do tipo S-N, associadas a diversas normas de projeto. A ponte rodoviária mista (aço-concreto) investigada neste estudo é constituída por quatro vigas de aço longitudinais e por um tabuleiro de concreto armado. O modelo numérico-computacional, desenvolvido para a análise dinâmica da ponte, foi concebido com base em técnicas usuais de discretização através do método dos elementos finitos. Simulam-se as almas das vigas de aço e as lajes de concreto do tabuleiro através de elementos finitos de casca. As mesas dessas vigas, transversinas e os enrijecedores são modelados por elementos de viga tridimensionais. Os veículos são representados a partir de sistemas "massa-mola-amortecedor". O tráfego dessas viaturas é considerado mediante a simulação de comboios semi-infinitos, deslocando-se com velocidade constante sobre a ponte. As conclusões da presente investigação versam acerca da vida útil de serviço dos elementos estruturais de pontes mistas (aço-concreto).
Resumo:
Recentemente a utilização de estruturas mistas, aço concreto, vem ganhando espaço nas construções. Isso deve-se principalmente a economia de tempo em sua execução. Além disto, nesta solução a utilização do aço e do concreto otimiza as características estruturais de seus elementos: a resistência a tração do aço e a compressão do concreto. A transferência dos esforços entre os dois materiais possui grande influência no desempenho de uma estrutura mista, sendo comum a utilização de conectores de cisalhamento na região da interface entre estes dois materiais. O Eurocode 4 define um ensaio experimental denominado push-out de modo a determinar a resistência e ductilidade de conectores de cisalhamento. Seu desempenho é influenciado pelas resistências do concreto a compressão, as dimensões e taxa de armadura da laje de concreto, dimensões do perfil de aço, a disposição e a geometria dos conectores e pelas características dos aços utilizados no conector, no perfil e nas barras de reforço. Nota-se com isso uma grande quantidade de variáveis que influenciam o ensaio. Assim, o presente trabalho apresenta o desenvolvimento de um modelo em elementos finitos com base no programa ANSYS para simulação de ensaios push-out. Os resultados numéricos apresentados neste trabalho foram calibrados com resultados obtidos em ensaios experimentais existentes na literatura de ensaios push-out para conectores do tipo pino com cabeça (stud) e conectores tipo perfobond. Estes últimos apresentam elevada resistência sendo influenciados por inúmeros fatores como: número e diâmetro dos furos no conector e a inclusão ou não de barras de reforço extras nestes furos.