1000 resultados para Simulação em Estatística
Resumo:
This work aims presenting the development of a model and computer simulation of a sucker rod pumping system. This system take into account the well geometry, the flow through the tubing, the dynamic behavior of the rod string and the use of a induction motor model. The rod string were modeled using concentrated parameters, allowing the use of ordinary differential equations systems to simulate it s behavior
Resumo:
Natural air ventilation is the most import passive strategy to provide thermal comfort in hot and humid climates and a significant low energy strategy. However, the natural ventilated building requires more attention with the architectural design than a conventional building with air conditioning systems, and the results are less reliable. Therefore, this thesis focuses on softwares and methods to predict the natural ventilation performance from the point of view of the architect, with limited resource and knowledge of fluid mechanics. A typical prefabricated building was modelled due to its simplified geometry, low cost and occurrence at the local campus. Firstly, the study emphasized the use of computational fluid dynamics (CFD) software, to simulate the air flow outside and inside the building. A series of approaches were developed to make the simulations possible, compromising the results fidelity. Secondly, the results of CFD simulations were used as the input of an energy tool, to simulate the thermal performance under different rates of air renew. Thirdly, the results of temperature were assessed in terms of thermal comfort. Complementary simulations were carried out to detail the analyses. The results show the potentialities of these tools. However the discussions concerning the simplifications of the approaches, the limitations of the tools and the level of knowledge of the average architect are the major contribution of this study
Resumo:
2015
Resumo:
Oil production and exploration techniques have evolved in the last decades in order to increase fluid flows and optimize how the required equipment are used. The base functioning of Electric Submersible Pumping (ESP) lift method is the use of an electric downhole motor to move a centrifugal pump and transport the fluids to the surface. The Electric Submersible Pumping is an option that has been gaining ground among the methods of Artificial Lift due to the ability to handle a large flow of liquid in onshore and offshore environments. The performance of a well equipped with ESP systems is intrinsically related to the centrifugal pump operation. It is the pump that has the function to turn the motor power into Head. In this present work, a computer model to analyze the three-dimensional flow in a centrifugal pump used in Electric Submersible Pumping has been developed. Through the commercial program, ANSYS® CFX®, initially using water as fluid flow, the geometry and simulation parameters have been defined in order to obtain an approximation of what occurs inside the channels of the impeller and diffuser pump in terms of flow. Three different geometry conditions were initially tested to determine which is most suitable to solving the problem. After choosing the most appropriate geometry, three mesh conditions were analyzed and the obtained values were compared to the experimental characteristic curve of Head provided by the manufacturer. The results have approached the experimental curve, the simulation time and the model convergence were satisfactory if it is considered that the studied problem involves numerical analysis. After the tests with water, oil was used in the simulations. The results were compared to a methodology used in the petroleum industry to correct viscosity. In general, for models with water and oil, the results with single-phase fluids were coherent with the experimental curves and, through three-dimensional computer models, they are a preliminary evaluation for the analysis of the two-phase flow inside the channels of centrifugal pump used in ESP systems
Resumo:
The present study provides a methodology that gives a predictive character the computer simulations based on detailed models of the geometry of a porous medium. We using the software FLUENT to investigate the flow of a viscous Newtonian fluid through a random fractal medium which simplifies a two-dimensional disordered porous medium representing a petroleum reservoir. This fractal model is formed by obstacles of various sizes, whose size distribution function follows a power law where exponent is defined as the fractal dimension of fractionation Dff of the model characterizing the process of fragmentation these obstacles. They are randomly disposed in a rectangular channel. The modeling process incorporates modern concepts, scaling laws, to analyze the influence of heterogeneity found in the fields of the porosity and of the permeability in such a way as to characterize the medium in terms of their fractal properties. This procedure allows numerically analyze the measurements of permeability k and the drag coefficient Cd proposed relationships, like power law, for these properties on various modeling schemes. The purpose of this research is to study the variability provided by these heterogeneities where the velocity field and other details of viscous fluid dynamics are obtained by solving numerically the continuity and Navier-Stokes equations at pore level and observe how the fractal dimension of fractionation of the model can affect their hydrodynamic properties. This study were considered two classes of models, models with constant porosity, MPC, and models with varying porosity, MPV. The results have allowed us to find numerical relationship between the permeability, drag coefficient and the fractal dimension of fractionation of the medium. Based on these numerical results we have proposed scaling relations and algebraic expressions involving the relevant parameters of the phenomenon. In this study analytical equations were determined for Dff depending on the geometrical parameters of the models. We also found a relation between the permeability and the drag coefficient which is inversely proportional to one another. As for the difference in behavior it is most striking in the classes of models MPV. That is, the fact that the porosity vary in these models is an additional factor that plays a significant role in flow analysis. Finally, the results proved satisfactory and consistent, which demonstrates the effectiveness of the referred methodology for all applications analyzed in this study.
Resumo:
Petroleum evaluation is analyze it using different methodologies, following international standards to know their chemical and physicochemical properties, contaminant levels, composition and especially their ability to generate derivatives. Many of these analyzes consuming a lot of time, large amount of samples , supplies and need an organized transportation logistics, schedule and professionals involved. Looking for alternatives that optimize the evaluation and enable the use of new technologies, seven samples of different centrifuged Brazilian oils previously characterized by Petrobras were analyzed by thermogravimetry in 25-900° C range using heating rates of 05, 10 and 20ºC per minute. With experimental data obtained, characterizations correlations were performed and provided: generation of true boiling point curves (TBP) simulated; comparing fractions generated with appropriate cut standard in temperature ranges; an approach to obtain Watson characterization factor; and compare micro carbon residue formed. The results showed a good chance of reproducing simulated TBP curve from thermogravimetry taking into account the composition, density and other oil properties. Proposed correlations for experimental characterization factor and carbon residue followed Petrobras characterizations, showing that thermogravimetry can be used as a tool on oil evaluation, because your quick analysis, accuracy, and requires a minimum number of samples and consumables
Resumo:
Introdução: A perda transitória da consciência e tónus postural seguido de rápida recuperação é definida como síncope. Tem sido dada atenção a uma síncope de origem central com descida da pressão sistémica conhecida por síncope vasovagal (SVV). Objetivos: A análise da variabilidade da frequência cardíaca (HRV) é uma das principais estratégias para estudar a SVV através de protocolos padrão (por exemplo tilt test). O principal objetivo deste trabalho é compreender a importância relativa de diversas variáveis, tais como pressão arterial diastólica e sistólica, (dBP) e (sBP), volume sistólico (SV) e resistência periférica total (TPR) na HRV. Métodos: Foram usados modelos estatísticos mistos para modelar o comportamento das variáveis acima descritas na HRV. Analisaram-se mais de mil e quinhentas observações de quatro pacientes com SVV, previamente testados com análise espectral clássica para a fase basal (LF/HF=3.01) e fases de tilt (LF/HF=0.64), indicando uma predominância vagal no período tilt. Resultados: O modelo 1 revelou o papel importante da dBP e uma baixa influência de SV, na fase de tilt, relativos à HRV. No modelo 2 a TPR revelou uma baixa influência na HRV na fase de tilt entre os pacientes. Conclusões: Verificou-se que a HRV é influenciada por um conjunto de variáveis fisiológicas, cuja contribuição individual pode ser usada para compreender as flutuações cardíacas. O uso de modelos estatísticos salientou a importância de estudar o papel da dBP e SV na SVV.
Resumo:
O teste de Friedman e a alternativa não paramétrica à ANOVA de medidas repetidas. Os testes de comparação múltipla são aplicados após a rejeição da hipótese nula do teste Friedman. Neste trabalho, realizamos um estudo de simulação para analisar a probabilidade de erro de Tipo I tanto no teste de Friedman como também nos testes de comparação múltipla mais usuais. Consideraram-se as distribuições discretas vulgarmente utilizadas para modelar dados de contagens, nas áreas da Biologia e da Ecologia. No teste de Friedman a taxa de erro de Tipo I empírica e menor quando se considera a estatística de teste com aproximação ao qui-quadrado. Nos testes de comparação múltipla, a probabilidade de erro de Tipo I aumenta com o aumento do número de blocos, e no teste LSD de Fisher também com o aumento do número de tratamentos. O teste dos Sinais e o mais conservativo e o teste LSD de Fisher o mais liberal.
Resumo:
Considerando como caso de estudo o do maciço envolvente e subjacente à antiga mina de urânio de Quinta do Bispo (Concelho de Mangualde), composto essencialmente por granitos hercínicos e metasedimentos do Complexo Xisto-Grauváquico, estabeleceu-se uma metodologia que permitiu a construção de modelos 3D de transmissividade, equiprováveis, mediante o cruzamento de propriedades intrínsecas do maciço rochoso – neste caso particular, a litologia, o grau de alteração e a densidade de fracturação - passíveis de modelação estocástica a 3D, com propriedades hidrogeológicas do meio, medidas in situ e avaliadas deterministicamente, por via da realização e interpretação de ensaios de bombagem direcionados. A interpretação dos resultados dos ensaios de bombagem realizou-se por patamares, recorrendo-se aos métodos de “Porosidade Dupla” e de “Theis com correcção de Jacob”, tendo-se processado curvas cumulativas de valores de transmissividade em função da litologia e do grau de alteração, conforme os distintos sectores comportamentais do maciço. A metodologia adoptada levou a que os valores de transmissividade de cada célula dos modelos 3D tenham sido simulados com condicionamento aos valores experimentais dos ensaios de bombagem, ponderados de acordo com as probabilidades dessa mesma célula representar, numa dada localização no espaço, uma certa Litologia, sob um determinado Grau de Alteração que possui, quando aplicável, um certo Número de Fracturas não preenchidas. As variáveis representativas dos atributos geológicos Litologia, Grau de Alteração e Número de Fracturas, foram simuladas em cadeia pelo que os modelos de transmissividades integram a variabilidade e heterogeneidade locais destes atributos, os quais condicionam o fluxo tridimensional da água.
Resumo:
O objetivo desse trabalho foi simular o risco de lixiviação de trinta e oito poluentes orgânicos presentes em lodos de esgotos provenientes de estações de tratamentos. Para tanto, foi assumido um cultivo hipotético de milho em um solo Latossolo vermelho distrófico, característico de solos de regiões produtoras de milho, no qual foi aplicada uma dose de lodo de esgoto como fertilizante. Lodos de esgotos são ricos em matéria orgânica e micronutrientes úteis na fertilização de solos para a produção de plantas, mas também podem conter poluentes de importância ambiental. A lixiviação dos poluentes foi simulada utilizando-se o modelo CMLS94 e os dados climáticos de mil anos independentes e igualmente prováveis gerados pelo simulador de clima WGEN, a partir de uma seqüência de quatorze anos consecutivos observados e registrados pela Estação Experimental do Instituto Agronômico de Campinas. A análise de risco de lixiviação indicou que os poluentes benzidina > n-nitrosodi-n-propilamina > fenol > 2,4-dinitrofenol > isoforano > nitrobenzeno > p-cresol > o-cresol > m-cresol > 2-clorofenol, nessa ordem, devem ser monitorados em águas subterrâneas de regiões de solos nos quais foram aplicados doses de lodo.
Resumo:
Visando oferecer subsídios para a avaliação do Plano Territorial de Desenvolvimento Rural Sustentável do Ministério do Desenvolvimento Agrário este trabalho teve como objetivo a aplicação da análise de componentes principais, da análise de agrupamentos pelo método hierárquico aglomerativo e da rede neural do tipo Mapa Auto-Organizável de Kohonen na análise exploratória de resultados de simulações sociais computacionais do sistema socioterritorial ?Território Rural Sul "sergipano?. A metodologia basea-se na Sociologia da Ação Organizada e no método Soclab. As análises estatísticas mostraram que o sistema socioterritorial em questão tem estrutura simples e determinística, ou seja, apresenta um jogo social cooperativo com forte tendência à estabilidade mesmo com situações de interesses divergentes. A análise neural permitiu a caracterização das situações atípicas quando ocorrem a estabilidade do sistema social.
Resumo:
2008
Avaliação, empregando simulação, da diferença na produtividade (yield gap) do milho em Minas Gerais.
Resumo:
2016
Resumo:
Muitos experimentos tem sido analisados por métodos estatísticos inadequados. O uso não criterioso destes métodos, sem o devido cuidado ou sem considerar outras possibilidades, pode reduzir o valor das discussões, conclusões e o próprio valor da pesquisa. Há uma grande gama de tipos possíveis de abordagem estatística dos dados de pesquisa, cada qual atingindo uma finalidade. Por isso, o procedimento estatístico deve ser escolhido criteriosamente. Se o objetivo de um trabalho e estimar a magnitude de um efeito, então a analise usada deve estimá-la: não basta neste caso, apenas explicar qual dos resultados diferiram significativamente. Não obstante, se o objetivo da pesquisa é determinar um ponto, então a análise deve faze-lo. Neste caso, não e suficiente verificar somente o comportamento dos dados. A escolha de um modelo de regressão e uma ponderação na qual deve ser considerados, a adequação ao fenômeno estudado, o ajuste matemático obtido e a sua aplicabilidade. As propriedades do modelo escolhido devem ser justificáveis, tanto logicamente quanto biologicamente. Portanto, a análise deve ser sensata, lógica e apropriada as questões que procura-se responder.
Resumo:
2008