1000 resultados para Climatologia - Métodos de simulação
Resumo:
Este estudo teve por objetivo estimar, pelo modelo CENTURY, a alteração no estoque de carbono orgânico (CO) de solos do Planalto do Rio Grande do Sul durante o período de expansão da agricultura e o potencial de recuperação do estoque de CO através de diferentes sistemas de manejo. Foram utilizados solos de cinco Unidades de Mapeamento (UM), sob vegetação original de campo e floresta: LATOSSOLO VERMELHO Distófico típico (UM Cruz Alta e Passo Fundo), LATOSSOLO VERMELHO Distroférrico típico (UM Santo Ângelo e Erechim) LATOSSOLO BRUNO Alumínico câmbico e (UM Vacaria). Avaliou-se a expansão da agricultura nas UM, a variação no conteúdo de CO dos solos por decomposição microbiana e erosão e a emissão ou seqüestro de CO2 em cenários de manejo com diferentes adições de C, métodos de preparo do solo e perdas de solo por erosão. Durante o período de expansão da agricultura (1900-1980), o uso de sistemas de cultura com baixa adição de C, pousio, queima de resíduos e preparo convencional do solo, ocasionou reduções estimadas de 31 a 45% no estoque original de CO dos solos. Com a melhoria nos eventos de manejo a partir de 1981, houve a recuperação parcial no estoque de CO. Considerando o balanço de CO e CO2 para a região em estudo (52506 km2), o cenário de manejo 1 (PC trigo/soja com queima) apresentou perda total estimada de 159517,0x103 Mg de CO e emissão de 299562,10x103 Mg de CO2 à atmosfera. Nos demais cenários, foram estimados incrementos de CO em relação ao cenário 1, atingindo, em 2050, valores correspondentes a 68,5% (cenário 2 - PR trigo/soja sem queima), 92,7% (cenário 3 - PD trigo/soja, aveia/soja, aveia/milho) e 98,1% (cenário 4 - PD trigo/soja, aveia/milho) do estoque original de CO. Devido a alta adição anual de C (6,0 Mg ha-1) e uso do plantio direto, o cenário 4 apresentou seqüestro líquido de 52173,32x103 Mg de CO2.
Resumo:
Simulações Numéricas são executadas em um código numérico de alta precisão resolvendo as equações de Navier-Stokes e da continuidade para regimes de escoamento incompressíveis num contexto da turbulência bidimensional. Este código utiliza um esquema compacto de diferenças finitas de sexta ordem na aproximação das derivadas espaciais. As derivadas temporais são calculadas usando o esquema de Runge-Kuta de terceeira ordem com baixo armazenamento. Tal código numérico fornece uma representação melhorada para uma grande faixa de escalas de comprimento e de tempo. As técnicas dos contornos imersos acopladas ao método dos contornos virtuais permitem modelar escoamentos não-estacionários sobre geometrrias complexas, usando simplesmente uma malha Cartesiana uniforme. Por meio de procedimentos de aproximação/interpolação, as técnicas dos contornos imersos (aproximação Gaussiana, interpolação bilinear e redistribuição Gaussiana), permitem a representação do corpo sólido no interior do campo de escoamento, com a superfície não coincidindo com a malha computacional. O método dos contornos virtuais, proposto originalmente por Peskin, consiste, basicamente, na imposição na superfície e/ou no interior do corpo, de um termo de força temporal acrescentando às equações do momento. A aplicação deste campo de força local leva o fluido ao repouso na superfície do corpo, permitindo obter as condições de contorno de não-deslizamento e de não penetração de fluido na parede. A análise das oscilações induzidas no escoamento-contorno pelo processo de desprendimento de vórtices na esteira do cilindro circular e de geometria retangulares na incidência, para números de Reybolds variando de 40 a 400, confirma a eficiência computacional e a aplicabilidade das técncias implementadas.
Resumo:
A paralelização de métodos de resolução de sistemas de equações lineares e não lineares é uma atividade que tem concentrado várias pesquisas nos últimos anos. Isto porque, os sistemas de equações estão presentes em diversos problemas da computação cientí ca, especialmente naqueles que empregam equações diferenciais parciais (EDPs) que modelam fenômenos físicos, e que precisam ser discretizadas para serem tratadas computacionalmente. O processo de discretização resulta em sistemas de equações que necessitam ser resolvidos a cada passo de tempo. Em geral, esses sistemas têm como características a esparsidade e um grande número de incógnitas. Devido ao porte desses sistemas é necessária uma grande quantidade de memória e velocidade de processamento, sendo adequado o uso de computação de alto desempenho na obtenção da solução dos mesmos. Dentro desse contexto, é feito neste trabalho um estudo sobre o uso de métodos de decomposição de domínio na resolução de sistemas de equações em paralelo. Esses métodos baseiam-se no particionamento do domínio computacional em subdomínios, de modo que a solução global do problema é obtida pela combinação apropriada das soluções de cada subdomínio. Uma vez que diferentes subdomínios podem ser tratados independentemente, tais métodos são atrativos para ambientes paralelos. Mais especi camente, foram implementados e analisados neste trabalho, três diferentes métodos de decomposição de domínio. Dois desses com sobreposição entre os subdomínios, e um sem sobreposição. Dentre os métodos com sobreposição foram estudados os métodos aditivo de Schwarz e multiplicativo de Schwarz. Já dentre os métodos sem sobreposição optou-se pelo método do complemento de Schur. Todas as implementações foram desenvolvidas para serem executadas em clusters de PCs multiprocessados e estão incorporadas ao modelo HIDRA, que é um modelo computacional paralelo multifísica desenvolvido no Grupo de Matemática da Computação e Processamento de Alto Desempenho (GMCPAD) para a simulação do escoamento e do transporte de substâncias em corpos de águas.
Resumo:
As aplicações da mecânica vibratória vêm crescendo significativamente na análise de sistemas de suspensões e estruturas de veículos, dentre outras. Desta forma, o presente trabalho desenvolve técnicas para a simulação e o controle de uma suspensão de automóvel utilizando modelos dinâmicos com um, dois e três graus de liberdade. Na obtenção das equações do movimento para o sistema massa-mola-amortecedor, o modelo matemático utilizado tem como base a equação de Lagrange e a segunda lei de Newton, com condições iniciais apropriadas. A solução numérica destas equações é obtida através do método de Runge-Kutta de 4ª ordem, utilizando o software MATLAB. Para controlar as vibrações do sistema utilizou-se três métodos diferentes de controle: clássico, LQR e alocação de pólos. O sistema assim obtido satisfaz as condições de estabilidade e de desempenho e é factível para aplicações práticas, pois os resultados obtidos comparam adequadamente com dados analíticos, numéricos ou experimentais encontrados na literatura, indicando que técnicas de controle como o clássico podem ser simples e eficientes.
Resumo:
A sobrevivência de uma organização depende da maneira como ela estabelece sua arquitetura organizacional e estrutura de incentivos. O esforço da administração será desperdiçado, caso esta não consiga fazer com que toda a estrutura de tomada de decisões seja direcionada aos objetivos de longo prazo da empresa. Dentro da estrutura de incentivos, o sistema de preços de transferência é de extrema relevância, principalmente para o caso de organizações multidivisionais, as quais são maioria entre as maiores empresas do cenário atual. Este trabalho busca identificar e modelar uma das possíveis distorções que afetam os preços de transferência e os incentivos dele decorrentes, os quais afetam diretamente o valor da empresa. Por meio da simulação de vários métodos de custeio, calculou-se os possíveis impactos na estrutura de custo de uma empresa real, e sua conseqüente modificação nos sistema de preços de transferência existentes. A partir daí, analisou-se os impactos destes diferentes cenários nos incentivos da área comercial de diferentes unidades de negócios da empresa. A conclusão é que diferentes métodos de custeio afetam diretamente os preços de transferência. Estes, por sua vez, alteram os incentivos das áreas comerciais das diferentes unidades de negócios, afetando o desempenho da empresa, de acordo com o método de custeio utilizado. A mensagem final é que tanto a estrutura de custos quanto a de incentivos deve ser analisada em detalhe, uma vez que tais decisões impactarão diretamente no valor de mercado da organização.
Resumo:
A avaliação da solicitação produzida por explosões, assim como da resposta de estruturas, são temas de muito interesse na engenharia atualmente, tanto pela quantidade crescente de acidentes relacionados com explosões quanto pelas ações terroristas muitas vezes vinculadas a estes tipos de ações. Neste contexto, o presente trabalho tem por objetivo explorar técnicas de análise tanto na modelagem da excitação quanto na resposta de estruturas consideradas como alvos. Para isto, são utilizadas metodologias de diferentes tipos: implementações baseadas em sistema de elementos finitos comerciais como Ansys [2000] e LS-Dyna [2003] e técnicas simplificativas que permitem realizar uma avaliação preliminar. As aplicações consideradas são indicadas a seguir: • Análise da Resposta de Estruturas Laminares Submetidas à Ação de Cargas Explosivas: determina-se a pressão produzida por explosivos sólidos a certa distância do epicentro, através de métodos simplificados, determinando a resposta esperada em placas retangulares; • Efeito da Pressão Interna em Vasos de Pressão (Extintores de Incêndio): comparando resultados numéricos e experimentais verifica-se a influência da pressão interna nas propriedades dinâmicas do sistema; • Estudo de Um Vaso Esférico de GLP Sob Ação de Uma Carga Explosiva: aplica-se a ação de uma onda explosiva produzida por um gás inflamável pesado sobre uma estrutura de vaso de pressão esférico com fluido e gás em seu interior, determinando sua resposta, avaliando também a influência de diferentes quantidades de líquido e pressão interna na resposta da estrutura; • Modelamento de uma Camada de Solo / Propagação das Ondas: verifica-se o comportamento da propagação de ondas em um meio elástico, comparando valores encontrados em testes experimentais. Analisa-se numericamente o efeito da inserção de uma valeta na atenuação de tais ondas; • Simulação Numérica Completa de uma Explosão: modela-se um semi-espaço submetido à ação de um explosivo sólido sobre sua superfície, avaliando os campos de pressão gerados. Ao final de cada aplicação são apresentadas conclusões parciais obtidas e as possibilidades de trabalhos futuros vislumbrados. Finalmente, conclui-se que as técnicas empregadas para as simulações são extremamente eficientes, considerando conhecidos todos os parâmetros envolvidos em cada modelo. Neste ponto é fundamental o trabalho do engenheiro, utilizando-se de seus conhecimentos técnicos para transformação do evento real em um modelo numérico, considerando e selecionando as simplificações necessárias.
Resumo:
Outliers são observações que parecem ser inconsistentes com as demais. Também chamadas de valores atípicos, extremos ou aberrantes, estas inconsistências podem ser causadas por mudanças de política ou crises econômicas, ondas inesperadas de frio ou calor, erros de medida ou digitação, entre outras. Outliers não são necessariamente valores incorretos, mas, quando provenientes de erros de medida ou digitação, podem distorcer os resultados de uma análise e levar o pesquisador à conclusões equivocadas. O objetivo deste trabalho é estudar e comparar diferentes métodos para detecção de anormalidades em séries de preços do Índice de Preços ao Consumidor (IPC), calculado pelo Instituto Brasileiro de Economia (IBRE) da Fundação Getulio Vargas (FGV). O IPC mede a variação dos preços de um conjunto fixo de bens e serviços componentes de despesas habituais das famílias com nível de renda situado entre 1 e 33 salários mínimos mensais e é usado principalmente como um índice de referência para avaliação do poder de compra do consumidor. Além do método utilizado atualmente no IBRE pelos analistas de preços, os métodos considerados neste estudo são: variações do Método do IBRE, Método do Boxplot, Método do Boxplot SIQR, Método do Boxplot Ajustado, Método de Cercas Resistentes, Método do Quartil, do Quartil Modificado, Método do Desvio Mediano Absoluto e Algoritmo de Tukey. Tais métodos foram aplicados em dados pertencentes aos municípios Rio de Janeiro e São Paulo. Para que se possa analisar o desempenho de cada método, é necessário conhecer os verdadeiros valores extremos antecipadamente. Portanto, neste trabalho, tal análise foi feita assumindo que os preços descartados ou alterados pelos analistas no processo de crítica são os verdadeiros outliers. O Método do IBRE é bastante correlacionado com os preços alterados ou descartados pelos analistas. Sendo assim, a suposição de que os preços alterados ou descartados pelos analistas são os verdadeiros valores extremos pode influenciar os resultados, fazendo com que o mesmo seja favorecido em comparação com os demais métodos. No entanto, desta forma, é possível computar duas medidas através das quais os métodos são avaliados. A primeira é a porcentagem de acerto do método, que informa a proporção de verdadeiros outliers detectados. A segunda é o número de falsos positivos produzidos pelo método, que informa quantos valores precisaram ser sinalizados para um verdadeiro outlier ser detectado. Quanto maior for a proporção de acerto gerada pelo método e menor for a quantidade de falsos positivos produzidos pelo mesmo, melhor é o desempenho do método. Sendo assim, foi possível construir um ranking referente ao desempenho dos métodos, identificando o melhor dentre os analisados. Para o município do Rio de Janeiro, algumas das variações do Método do IBRE apresentaram desempenhos iguais ou superiores ao do método original. Já para o município de São Paulo, o Método do IBRE apresentou o melhor desempenho. Em trabalhos futuros, espera-se testar os métodos em dados obtidos por simulação ou que constituam bases largamente utilizadas na literatura, de forma que a suposição de que os preços descartados ou alterados pelos analistas no processo de crítica são os verdadeiros outliers não interfira nos resultados.
Resumo:
Os escoamentos no interior de zonas urbanas, apresentam grande heterogeneidade, pelo que a sua caracterização, requer uma formulação que incorpore explicitamente essa variabilidade espacial. A caracterização, simulação (à escala) e modelação do escoamento em canais artificiais e a aplicação a um caso de estudo, no Laboratório de Hidráulica da UMa, representa o cerne desta dissertação. Os objetivos principais desta dissertação são: a caracterização e desenvolvimento de ferramentas de simulação do comportamento do escoamento em canais artificiais, no caso de uma variação súbita dos caudais afluentes, mecanismos de prevenção de cheia; o desenvolvimento de um modelo de simulação hidrodinâmico, considerando os escoamentos variáveis em superfície livre no caso de situações de cheia, na simulação entre as condições variáveis das afluências, das condições hidromorfológicas do canal e da instalação e operação dos sistemas e regulação dos escoamentos; e ainda a análise da viabilidade da simulação (modelo) na gestão e prevenção de cheias em canais artificiais. Numa primeira instância, procede-se à recolha de toda a informação bibliográfica disponível. Com recurso aos modelos digitais do terreno e ao programa ArcGis, é efetuada toda uma exaustiva caracterização da bacia hidrográfica, relativa ao caso de estudo (canal artificial), a partir da qual foi possível obter os dados inerentes às características geométricas, características de relevo e características de drenagem. Segue-se a análise da precipitação com recurso a folhas de cálculo e dados fornecidos pelas instituições pertinentes, de forma a obter valores de precipitação média diária e anual para aplicação de fórmulas, tanto para calcular valores de tempo de concentração, bem como caudais. O próximo passo é selecionar os troços relevantes do canal em estudo e com recurso ao equipamento disponível no Laboratório de Hidráulica da UMa, à folha de cálculo programada e ao programa HEC-RAS procede-se à simulação/modelação/análise desses troços, comparando o resultado/comportamento simulado, com o expectável e entre os vários métodos. Por fim, são expostas as conclusões, bem como algumas considerações finais e uma listagem de objetivos a manter ou alcançar nos próximos anos, onde se incluem, ações prioritárias e recomendações visando, não só melhorar o processo de caracterização do escoamento em canais artificiais, bem como simplificar a prevenção e gestão de cheias.
Resumo:
Natural ventilation is an efficient bioclimatic strategy, one that provides thermal comfort, healthful and cooling to the edification. However, the disregard for quality environment, the uncertainties involved in the phenomenon and the popularization of artificial climate systems are held as an excuse for those who neglect the benefits of passive cooling. The unfamiliarity with the concept may be lessened if ventilation is observed in every step of the project, especially in the initial phase in which decisions bear a great impact in the construction process. The tools available in order to quantify the impact of projected decisions consist basically of the renovation rate calculations or computer simulations of fluids, commonly dubbed CFD, which stands for Computational Fluid Dynamics , both somewhat apart from the project s execution and unable to adapt for use in parametric studies. Thus, we chose to verify, through computer simulation, the representativeness of the results with a method of simplified air reconditioning rate calculation, as well as making it more compatible with the questions relevant to the first phases of the project s process. The case object consists of a model resulting from the recommendations of the Código de Obras de Natal/ RN, customized according to the NBR 15220. The study has shown the complexity in aggregating a CFD tool to the process and the need for a method capable of generating data at the compatible rate to the flow of ideas and are discarded during the project s development. At the end of our study, we discuss the necessary concessions for the realization of simulations, the applicability and the limitations of both the tools used and the method adopted, as well as the representativeness of the results obtained
Resumo:
The assessment of building thermal performance is often carried out using HVAC energy consumption data, when available, or thermal comfort variables measurements, for free-running buildings. Both types of data can be determined by monitoring or computer simulation. The assessment based on thermal comfort variables is the most complex because it depends on the determination of the thermal comfort zone. For these reasons, this master thesis explores methods of building thermal performance assessment using variables of thermal comfort simulated by DesignBuilder software. The main objective is to contribute to the development of methods to support architectural decisions during the design process, and energy and sustainable rating systems. The research method consists on selecting thermal comfort methods, modeling them in electronic sheets with output charts developed to optimize the analyses, which are used to assess the simulation results of low cost house configurations. The house models consist in a base case, which are already built, and changes in thermal transmittance, absorptance, and shading. The simulation results are assessed using each thermal comfort method, to identify the sensitivity of them. The final results show the limitations of the methods, the importance of a method that considers thermal radiance and wind speed, and the contribution of the chart proposed
Resumo:
In Brazil and around the world, oil companies are looking for, and expected development of new technologies and processes that can increase the oil recovery factor in mature reservoirs, in a simple and inexpensive way. So, the latest research has developed a new process called Gas Assisted Gravity Drainage (GAGD) which was classified as a gas injection IOR. The process, which is undergoing pilot testing in the field, is being extensively studied through physical scale models and core-floods laboratory, due to high oil recoveries in relation to other gas injection IOR. This process consists of injecting gas at the top of a reservoir through horizontal or vertical injector wells and displacing the oil, taking advantage of natural gravity segregation of fluids, to a horizontal producer well placed at the bottom of the reservoir. To study this process it was modeled a homogeneous reservoir and a model of multi-component fluid with characteristics similar to light oil Brazilian fields through a compositional simulator, to optimize the operational parameters. The model of the process was simulated in GEM (CMG, 2009.10). The operational parameters studied were the gas injection rate, the type of gas injection, the location of the injector and production well. We also studied the presence of water drive in the process. The results showed that the maximum vertical spacing between the two wells, caused the maximum recovery of oil in GAGD. Also, it was found that the largest flow injection, it obtained the largest recovery factors. This parameter controls the speed of the front of the gas injected and determined if the gravitational force dominates or not the process in the recovery of oil. Natural gas had better performance than CO2 and that the presence of aquifer in the reservoir was less influential in the process. In economic analysis found that by injecting natural gas is obtained more economically beneficial than CO2
Resumo:
Oil production and exploration techniques have evolved in the last decades in order to increase fluid flows and optimize how the required equipment are used. The base functioning of Electric Submersible Pumping (ESP) lift method is the use of an electric downhole motor to move a centrifugal pump and transport the fluids to the surface. The Electric Submersible Pumping is an option that has been gaining ground among the methods of Artificial Lift due to the ability to handle a large flow of liquid in onshore and offshore environments. The performance of a well equipped with ESP systems is intrinsically related to the centrifugal pump operation. It is the pump that has the function to turn the motor power into Head. In this present work, a computer model to analyze the three-dimensional flow in a centrifugal pump used in Electric Submersible Pumping has been developed. Through the commercial program, ANSYS® CFX®, initially using water as fluid flow, the geometry and simulation parameters have been defined in order to obtain an approximation of what occurs inside the channels of the impeller and diffuser pump in terms of flow. Three different geometry conditions were initially tested to determine which is most suitable to solving the problem. After choosing the most appropriate geometry, three mesh conditions were analyzed and the obtained values were compared to the experimental characteristic curve of Head provided by the manufacturer. The results have approached the experimental curve, the simulation time and the model convergence were satisfactory if it is considered that the studied problem involves numerical analysis. After the tests with water, oil was used in the simulations. The results were compared to a methodology used in the petroleum industry to correct viscosity. In general, for models with water and oil, the results with single-phase fluids were coherent with the experimental curves and, through three-dimensional computer models, they are a preliminary evaluation for the analysis of the two-phase flow inside the channels of centrifugal pump used in ESP systems
Resumo:
The increase in ultraviolet radiation (UV) at surface, the high incidence of non-melanoma skin cancer (NMSC) in coast of Northeast of Brazil (NEB) and reduction of total ozone were the motivation for the present study. The overall objective was to identify and understand the variability of UV or Index Ultraviolet Radiation (UV Index) in the capitals of the east coast of the NEB and adjust stochastic models to time series of UV index aiming make predictions (interpolations) and forecasts / projections (extrapolations) followed by trend analysis. The methodology consisted of applying multivariate analysis (principal component analysis and cluster analysis), Predictive Mean Matching method for filling gaps in the data, autoregressive distributed lag (ADL) and Mann-Kendal. The modeling via the ADL consisted of parameter estimation, diagnostics, residuals analysis and evaluation of the quality of the predictions and forecasts via mean squared error and Pearson correlation coefficient. The research results indicated that the annual variability of UV in the capital of Rio Grande do Norte (Natal) has a feature in the months of September and October that consisting of a stabilization / reduction of UV index because of the greater annual concentration total ozone. The increased amount of aerosol during this period contributes in lesser intensity for this event. The increased amount of aerosol during this period contributes in lesser intensity for this event. The application of cluster analysis on the east coast of the NEB showed that this event also occurs in the capitals of Paraiba (João Pessoa) and Pernambuco (Recife). Extreme events of UV in NEB were analyzed from the city of Natal and were associated with absence of cloud cover and levels below the annual average of total ozone and did not occurring in the entire region because of the uneven spatial distribution of these variables. The ADL (4, 1) model, adjusted with data of the UV index and total ozone to period 2001-2012 made a the projection / extrapolation for the next 30 years (2013-2043) indicating in end of that period an increase to the UV index of one unit (approximately), case total ozone maintain the downward trend observed in study period
Resumo:
The Electrical Submersible Pump (ESP) has been one of the most appropriate solutions for lifting method in onshore and offshore applications. The typical features for this application are adverse temperature, viscosity fluids and gas environments. The difficulties in equipments maintenance and setup contributing to increasing costs of oil production in deep water, therefore, the optimization through automation can be a excellent approach for decrease costs and failures in subsurface equipment. This work describe a computer simulation related with the artificial lifting method ESP. This tool support the dynamic behavior of ESP approach, considering the source and electric energy transmission model for the motor, the electric motor model (including the thermal calculation), flow tubbing simulation, centrifugal pump behavior simulation with liquid nature effects and reservoir requirements. In addition, there are tri-dimensional animation for each ESP subsytem (transformer, motor, pump, seal, gas separator, command unit). This computer simulation propose a improvement for monitoring oil wells for maximization of well production. Currenty, the proprietaries simulators are based on specific equipments manufactures. Therefore, it is not possible simulation equipments of another manufactures. In the propose approach there are support for diverse kinds of manufactures equipments
Resumo:
Currently there is still a high demand for quality control in manufacturing processes of mechanical parts. This keeps alive the need for the inspection activity of final products ranging from dimensional analysis to chemical composition of products. Usually this task may be done through various nondestructive and destructive methods that ensure the integrity of the parts. The result generated by these modern inspection tools ends up not being able to geometrically define the real damage and, therefore, cannot be properly displayed on a computing environment screen. Virtual 3D visualization may help identify damage that would hardly be detected by any other methods. One may find some commercial softwares that seek to address the stages of a design and simulation of mechanical parts in order to predict possible damages trying to diminish potential undesirable events. However, the challenge of developing softwares capable of integrating the various design activities, product inspection, results of non-destructive testing as well as the simulation of damage still needs the attention of researchers. This was the motivation to conduct a methodological study for implementation of a versatile CAD/CAE computer kernel capable of helping programmers in developing softwares applied to the activities of design and simulation of mechanics parts under stress. In this research it is presented interesting results obtained from the use of the developed kernel showing that it was successfully applied to case studies of design including parts presenting specific geometries, namely: mechanical prostheses, heat exchangers and piping of oil and gas. Finally, the conclusions regarding the experience of merging CAD and CAE theories to develop the kernel, so as to result in a tool adaptable to various applications of the metalworking industry are presented