940 resultados para Método Monte Carlo
Resumo:
The new technique for automatic search of the order parameters and critical properties is applied to several well-know physical systems, testing the efficiency of such a procedure, in order to apply it for complex systems in general. The automatic-search method is combined with Monte Carlo simulations, which makes use of a given dynamical rule for the time evolution of the system. In the problems inves¬tigated, the Metropolis and Glauber dynamics produced essentially equivalent results. We present a brief introduction to critical phenomena and phase transitions. We describe the automatic-search method and discuss some previous works, where the method has been applied successfully. We apply the method for the ferromagnetic fsing model, computing the critical fron¬tiers and the magnetization exponent (3 for several geometric lattices. We also apply the method for the site-diluted ferromagnetic Ising model on a square lattice, computing its critical frontier, as well as the magnetization exponent f3 and the susceptibility exponent 7. We verify that the universality class of the system remains unchanged when the site dilution is introduced. We study the problem of long-range bond percolation in a diluted linear chain and discuss the non-extensivity questions inherent to long-range-interaction systems. Finally we present our conclusions and possible extensions of this work
Resumo:
In this paper the point estimation method is applied to solve the probabilistic power flow problem for unbalanced three-phase distribution systems. Through the implementation of this method the probability distribution functions of voltages (magnitude and angle) as well as the active and reactive power flows in the branches of the distribution system are determined. Two different approaches of the point estimation method are presented (2m and 2m+1 point schemes). In order to test the proposed methodology, the IEEE 34 and 123 bus test systems are used. The results obtained with both schemes are compared with the ones obtained by a Monte Carlo Simulation (MCS).
Resumo:
Pós-graduação em Química - IQ
Resumo:
Pós-graduação em Saúde Coletiva - FMB
Resumo:
The automobile industry has a growing importance in the Brazilian economic environment. The industry moves a huge chain that encompasses manufacturers, suppliers of raw materials, auto parts dealers, gas stations, insurance companies, repair shops, tire stores, media companies, advertising agencies, among others. Because of this importance in the current economic environment in Brazil, the federal government, through Law No. 12715 of 17 December 2012 established a Program for the Promotion of Innovation and Densification in the Productive Chain of Motor Vehicles called INOVAR-AUTO in order to support technological development, innovation, safety, environmental protection, energy efficiency and quality of cars, trucks, buses and auto parts. The specific purpose of this study, a simulation for discussion of the viability of the program implementation using the Monte Carlo Simulation combined with the Cash-Flow-at-Risk was performed. To this end, an exploratory and documentary literature on the subject was held as well as a case study in a automobile company of Japanese origin
Resumo:
The automobile industry has a growing importance in the Brazilian economic environment. The industry moves a huge chain that encompasses manufacturers, suppliers of raw materials, auto parts dealers, gas stations, insurance companies, repair shops, tire stores, media companies, advertising agencies, among others. Because of this importance in the current economic environment in Brazil, the federal government, through Law No. 12715 of 17 December 2012 established a Program for the Promotion of Innovation and Densification in the Productive Chain of Motor Vehicles called INOVAR-AUTO in order to support technological development, innovation, safety, environmental protection, energy efficiency and quality of cars, trucks, buses and auto parts. The specific purpose of this study, a simulation for discussion of the viability of the program implementation using the Monte Carlo Simulation combined with the Cash-Flow-at-Risk was performed. To this end, an exploratory and documentary literature on the subject was held as well as a case study in a automobile company of Japanese origin
Resumo:
En la actualidad, la gestión de embalses para el control de avenidas se realiza, comúnmente, utilizando modelos de simulación. Esto se debe, principalmente, a su facilidad de uso en tiempo real por parte del operador de la presa. Se han desarrollado modelos de optimización de la gestión del embalse que, aunque mejoran los resultados de los modelos de simulación, su aplicación en tiempo real se hace muy difícil o simplemente inviable, pues está limitada al conocimiento de la avenida futura que entra al embalse antes de tomar la decisión de vertido. Por esta razón, se ha planteado el objetivo de desarrollar un modelo de gestión de embalses en avenidas que incorpore las ventajas de un modelo de optimización y que sea de fácil uso en tiempo real por parte del gestor de la presa. Para ello, se construyó un modelo de red Bayesiana que representa los procesos de la cuenca vertiente y del embalse y, que aprende de casos generados sintéticamente mediante un modelo hidrológico agregado y un modelo de optimización de la gestión del embalse. En una primera etapa, se generó un gran número de episodios sintéticos de avenida utilizando el método de Monte Carlo, para obtener las lluvias, y un modelo agregado compuesto de transformación lluvia- escorrentía, para obtener los hidrogramas de avenida. Posteriormente, se utilizaron las series obtenidas como señales de entrada al modelo de gestión de embalses PLEM, que optimiza una función objetivo de costes mediante programación lineal entera mixta, generando igual número de eventos óptimos de caudal vertido y de evolución de niveles en el embalse. Los episodios simulados fueron usados para entrenar y evaluar dos modelos de red Bayesiana, uno que pronostica el caudal de entrada al embalse, y otro que predice el caudal vertido, ambos en un horizonte de tiempo que va desde una a cinco horas, en intervalos de una hora. En el caso de la red Bayesiana hidrológica, el caudal de entrada que se elige es el promedio de la distribución de probabilidad de pronóstico. En el caso de la red Bayesiana hidráulica, debido al comportamiento marcadamente no lineal de este proceso y a que la red Bayesiana devuelve un rango de posibles valores de caudal vertido, se ha desarrollado una metodología para seleccionar un único valor, que facilite el trabajo del operador de la presa. Esta metodología consiste en probar diversas estrategias propuestas, que incluyen zonificaciones y alternativas de selección de un único valor de caudal vertido en cada zonificación, a un conjunto suficiente de episodios sintéticos. Los resultados de cada estrategia se compararon con el método MEV, seleccionándose las estrategias que mejoran los resultados del MEV, en cuanto al caudal máximo vertido y el nivel máximo alcanzado por el embalse, cualquiera de las cuales puede usarse por el operador de la presa en tiempo real para el embalse de estudio (Talave). La metodología propuesta podría aplicarse a cualquier embalse aislado y, de esta manera, obtener, para ese embalse particular, diversas estrategias que mejoran los resultados del MEV. Finalmente, a modo de ejemplo, se ha aplicado la metodología a una avenida sintética, obteniendo el caudal vertido y el nivel del embalse en cada intervalo de tiempo, y se ha aplicado el modelo MIGEL para obtener en cada instante la configuración de apertura de los órganos de desagüe que evacuarán el caudal. Currently, the dam operator for the management of dams uses simulation models during flood events, mainly due to its ease of use in real time. Some models have been developed to optimize the management of the reservoir to improve the results of simulation models. However, real-time application becomes very difficult or simply unworkable, because the decision to discharge depends on the unknown future avenue entering the reservoir. For this reason, the main goal is to develop a model of reservoir management at avenues that incorporates the advantages of an optimization model. At the same time, it should be easy to use in real-time by the dam manager. For this purpose, a Bayesian network model has been developed to represent the processes of the watershed and reservoir. This model learns from cases generated synthetically by a hydrological model and an optimization model for managing the reservoir. In a first stage, a large number of synthetic flood events was generated using the Monte Carlo method, for rain, and rain-added processing model composed of runoff for the flood hydrographs. Subsequently, the series obtained were used as input signals to the reservoir management model PLEM that optimizes a target cost function using mixed integer linear programming. As a result, many optimal discharge rate events and water levels in the reservoir levels were generated. The simulated events were used to train and test two models of Bayesian network. The first one predicts the flow into the reservoir, and the second predicts the discharge flow. They work in a time horizon ranging from one to five hours, in intervals of an hour. In the case of hydrological Bayesian network, the chosen inflow is the average of the probability distribution forecast. In the case of hydraulic Bayesian network the highly non-linear behavior of this process results on a range of possible values of discharge flow. A methodology to select a single value has been developed to facilitate the dam operator work. This methodology tests various strategies proposed. They include zoning and alternative selection of a single value in each discharge rate zoning from a sufficient set of synthetic episodes. The results of each strategy are compared with the MEV method. The strategies that improve the outcomes of MEV are selected and can be used by the dam operator in real time applied to the reservoir study case (Talave). The methodology could be applied to any single reservoir and, thus, obtain, for the particular reservoir, various strategies that improve results from MEV. Finally, the methodology has been applied to a synthetic flood, obtaining the discharge flow and the reservoir level in each time interval. The open configuration floodgates to evacuate the flow at each interval have been obtained applying the MIGEL model.
Resumo:
O presente trabalho trata do estudo, por meio de simulação de Monte Carlo, de correlações entre variáveis cinemáticas nas topologias de difração simples e de dupla troca de pomeron com vista a delimitar e estudar o espaço de fase referente às topologias citadas, em especial no que se refere á produção inclusiva de dijatos no contexto do experimento CMS/LHC. Será também apresentada uma análise da produção, por difração simples, de dijatos inclusivos a energia no centro de massa √s = 14 TeV (também por simulação de Monte Carlo), na qual estabelecemos um procedimento, a ser usado com dados, para a observação desse tipo de processo. Ainda analisamos a influência de diversos valores da probabilidade de sobrevivência do intervalo de rapidez, [|S|], nos resultados, de forma que com 10 pb -1 de dados acumulados, uma simples observação da produção de dijatos difrativos inclusivos, pelo método proposto, pode vir a excluir valores muito pequenos de [|S|].
Resumo:
A Física das Radiações é um ramo da Física que está presente em diversas áreas de estudo e se relaciona ao conceito de espectrometria. Dentre as inúmeras técnicas espectrométricas existentes, destaca-se a espectrometria por fluorescência de raios X. Esta também possui uma gama de variações da qual pode-se dar ênfase a um determinado subconjunto de técnicas. A produção de fluorescência de raios X permite (em certos casos) a análise das propriedades físico-químicas de uma amostra específica, possibilitando a determinação de sua constituiçõa química e abrindo um leque de aplicações. Porém, o estudo experimental pode exigir uma grande carga de trabalho, tanto em termos do aparato físico quanto em relação conhecimento técnico. Assim, a técnica de simulação entra em cena como um caminho viável, entre a teoria e a experimentação. Através do método de Monte Carlo, que se utiliza da manipulação de números aleatórios, a simulação se mostra como uma espécie de alternativa ao trabalho experimental.Ela desenvolve este papel por meio de um processo de modelagem, dentro de um ambiente seguro e livre de riscos. E ainda pode contar com a computação de alto desempenho, de forma a otimizar todo o trabalho por meio da arquitetura distribuída. O objetivo central deste trabalho é a elaboração de um simulador computacional para análise e estudo de sistemas de fluorescência de raios X desenvolvido numa plataforma de computação distribuída de forma nativa com o intuito de gerar dados otimizados. Como resultados deste trabalho, mostra-se a viabilidade da construção do simulador através da linguagem CHARM++, uma linguagem baseada em C++ que incorpora rotinas para processamento distribuído, o valor da metodologia para a modelagem de sistemas e a aplicação desta na construção de um simulador para espectrometria por fluorescência de raios X. O simulador foi construído com a capacidade de reproduzir uma fonte de radiação eletromagnética, amostras complexas e um conjunto de detectores. A modelagem dos detectores incorpora a capacidade de geração de imagens baseadas nas contagens registradas. Para validação do simulador, comparou-se os resultados espectrométricos com os resultados gerados por outro simulador já validado: o MCNP.
Resumo:
162 p.
Resumo:
As técnicas de injeção de traçadores têm sido amplamente utilizadas na investigação de escoamentos em meios porosos, principalmente em problemas envolvendo a simulação numérica de escoamentos miscíveis em reservatórios de petróleo e o transporte de contaminantes em aquíferos. Reservatórios subterrâneos são em geral heterogêneos e podem apresentar variações significativas das suas propriedades em várias escalas de comprimento. Estas variações espaciais são incorporadas às equações que governam o escoamento no interior do meio poroso por meio de campos aleatórios. Estes campos podem prover uma descrição das heterogeneidades da formação subterrânea nos casos onde o conhecimento geológico não fornece o detalhamento necessário para a predição determinística do escoamento através do meio poroso. Nesta tese é empregado um modelo lognormal para o campo de permeabilidades a fim de reproduzir-se a distribuição de permeabilidades do meio real, e a geração numérica destes campos aleatórios é feita pelo método da Soma Sucessiva de Campos Gaussianos Independentes (SSCGI). O objetivo principal deste trabalho é o estudo da quantificação de incertezas para o problema inverso do transporte de um traçador em um meio poroso heterogêneo empregando uma abordagem Bayesiana para a atualização dos campos de permeabilidades, baseada na medição dos valores da concentração espacial do traçador em tempos específicos. Um método do tipo Markov Chain Monte Carlo a dois estágios é utilizado na amostragem da distribuição de probabilidade a posteriori e a cadeia de Markov é construída a partir da reconstrução aleatória dos campos de permeabilidades. Na resolução do problema de pressão-velocidade que governa o escoamento empregase um método do tipo Elementos Finitos Mistos adequado para o cálculo acurado dos fluxos em campos de permeabilidades heterogêneos e uma abordagem Lagrangiana, o método Forward Integral Tracking (FIT), é utilizada na simulação numérica do problema do transporte do traçador. Resultados numéricos são obtidos e apresentados para um conjunto de realizações amostrais dos campos de permeabilidades.
Resumo:
Neste trabalho estudamos a dependência com o tamanho do sistema dos observáveis relacionados com a transição de fase de 1 ordem do rupo de calibre Z(2) em 4 dimensões. Foram realizadas simulações de Monte Carlo numa rede cúbica para diferentes valores da aresta, utilizando o método do Banho Térmico para sortear os elementos do grupo na rede.
Resumo:
O presente trabalho investiga um método de detecção de anomalias baseado em sistemas imunológicos artificiais, especificamente em uma técnica de reconhecimento próprio/não-próprio chamada algoritmo de seleção negativa (NSA). Foi utilizado um esquema de representação baseado em hiperesferas com centros e raios variáveis e um modelo capaz de gerar detectores, com esta representação, de forma eficiente. Tal modelo utiliza algoritmos genéticos onde cada gene do cromossomo contém um índice para um ponto de uma distribuição quasi-aleatória que servirá como centro do detector e uma função decodificadora responsável por determinar os raios apropriados. A aptidão do cromossomo é dada por uma estimativa do volume coberto através uma integral de Monte Carlo. Este algoritmo teve seu desempenho verificado em diferentes dimensões e suas limitações levantadas. Com isso, pode-se focar as melhorias no algoritmo, feitas através da implementação de operadores genéticos mais adequados para a representação utilizada, de técnicas de redução do número de pontos do conjunto próprio e de um método de pré-processamento baseado em bitmaps de séries temporais. Avaliações com dados sintéticos e experimentos com dados reais demonstram o bom desempenho do algoritmo proposto e a diminuição do tempo de execução.
Resumo:
Históricamente, los modelos de no-ejercicio para predecir el consumo máximo de oxígeno (VO2max) han sido construidos mediante regresión lineal frecuentista, usando técnicas estándar de selección de modelos. Sin embargo, existe incertidumbre acerca de la estructura estadística en el proceso de selección del modelo. En este estudio se propuso construir un modelo de no-ejercicio para predecir el VO2max en deportistas orientados al rendimiento, considerando la incertidumbre de modelo a través del Promedio Bayesiano de Modelos (BMA). Un objetivo adicional fue comparar la performance predictiva del BMA con las de los modelos derivados de varias técnicas frecuentistas usuales de selección de variables. Con tal fin, se implementó un submuestreo aleatorio estratificado repetido. Los datos incluyeron observaciones de la variable respuesta (en L·min-1), así como registros de Género, Deporte, Edad, Peso, Talla e Índice de masa corporal (BMI) (Edad = 22.1 ± 4.9 años, media ± SD; n = 272). Se propuso una clasificación de deportes con el objetivo de incluirla dentro del proceso de construcción del modelo: Combate, Juego, Resistencia 1 y Resistencia 2. El enfoque BMA se implementó en base a dos métodos: Occam's window y Composición de Modelo mediante el método de Monte Carlo con Cadenas de Markov (MC²). Se observaron discrepancias en la selección de variables entre los procedimientos frecuentistas. Ambos métodos de BMA produjeron resultados muy similares. Los modelos que incluyeron Género y las variables dummies para Resistencia 1 y Resistencia 2 acumularon virtualmente toda la probabilidad de modelo a posteriori. El Peso fue el predictor continuo con la más alta probabilidad de inclusión a posteriori (menor a 0.8). Las combinaciones de variables que involucraron predictores con un alto nivel de multicolinealidad fueron desacreditadas. Los modelos con sustancial contribución para el BMA presentaron un ajuste apreciable (R² ajustado menor a 0.8). Entre los modelos seleccionados por estrategias frecuentistas, el obtenido mediante el método de regresión por pasos (Stepwise regression method) con alfa igual a 0.05 fue el más respaldado por los datos, en términos de probabilidad de modelo a posteriori. En concordancia con la literatura, el BMA tuvo mejor performance predictiva de los datos fuera de la muestra que los modelos seleccionados por técnicas frecuentistas, medida por la cobertura del intervalo de predicción de 90 por ciento. La clasificación de deportes reveló resultados consistentes.
Resumo:
O trabalho apresentado nesta tese teve como principais objectivos contribuir para o conhecimento da composição do líquido amniótico humano (LA), colhido no 2º trimestre de gravidez, assim como investigar possíveis alterações na sua composição devido à ocorrência de patologias pré-natais, recorrendo à metabonómica e procurando, assim, definir novos biomarcadores de doenças da grávida e do feto. Após uma introdução descrevendo o estado da arte relacionado com este trabalho (Capítulo 1) e os princípios das metodologias analíticas usadas (Capítulo 2), seguida de uma descrição dos aspectos experimentais associados a esta tese (Capítulo 3), apresentam-se os resultados da caracterização da composição química do LA (gravidez saudável) por espectroscopia de ressonância magnética nuclear (RMN), assim como da monitorização da sua estabilidade durante o armazenamento e após ciclos de congelamento-descongelamento (Capítulo 4). Amostras de LA armazenadas a -20°C registaram alterações significativas, tornando-se estas menos pronunciadas (mas ainda mensuráveis) a -70°C, temperatura recomendada para o armazenamento de LA. Foram também observadas alterações de composição após 1-2 ciclos de congelamento-descongelamento (a ter em conta aquando da reutilização de amostras), assim como à temperatura ambiente (indicando um período máximo de 4h para a manipulação e análise de LA). A aquisição de espectros de RMN de 1H de alta resolução e RMN acoplado (LC-NMR/MS) permitiu a detecção de 75 compostos no LA do 2º trimestre, 6 dos quais detectados pela primeira vez no LA. Experiências de difusão (DOSY) permitiram ainda a caracterização das velocidades de difusão e massas moleculares médias das proteínas mais abundantes. O Capítulo 5 descreve o estudo dos efeitos de malformações fetais (FM) e de cromossomopatias (CD) na composição do LA do 2º trimestre de gravidez. A extensão deste trabalho ao estudo dos efeitos de patologias no LA que ocorrem no 3º trimestre de gravidez é descrita no Capítulo 6, nomeadamente no que se refere ao parto pré-termo (PTD), pré-eclampsia (PE), restrição do crescimento intra-uterino (IUGR), ruptura prematura de membranas (PROM) e diabetes mellitus gestacional (GDM). Como complemento a estes estudos, realizou-se uma análise preliminar da urina materna do 2º trimestre para o estudo de FM e GDM, descrita no Capítulo 7. Para interpretação dos dados analíticos, obtidos por espectroscopia RMN de 1H, cromatografia líquida de ultra eficiência acoplada a espectrometria de massa (UPLC-MS) e espectroscopia do infravermelho médio (MIR), recorreu-se à análise discriminante pelos métodos dos mínimos quadrados parciais e o método dos mínimos quadrados parciais ortogonal (PLS-DA e OPLS-DA) e à correlação espectral. Após análise por validação cruzada de Monte-Carlo (MCCV), os modelos PLS-DA de LA permitiram distinguir as FM dos controlos (sensibilidades 69-85%, especificidades 80-95%, taxas de classificação 80-90%), revelando variações metabólicas ao nível do metabolismo energético, dos metabolismos dos aminoácidos e glícidos assim como possíveis alterações ao nível do funcionamento renal. Observou-se também um grande impacto das FM no perfil metabólico da urina materna (medido por UPLC-MS), tendo no entanto sido registados modelos PLS-DA com menor sensibilidade (40-60%), provavelmente devido ao baixo número de amostras e maior variabilidade da composição da urina (relativamente ao LA). Foram sugeridos possíveis marcadores relacionados com a ocorrência de FM, incluindo lactato, glucose, leucina, valina, glutamina, glutamato, glicoproteínas e conjugados de ácido glucurónico e/ou sulfato e compostos endógenos e/ou exógenos (<1 M) (os últimos visíveis apenas na urina). No LA foram também observadas variações metabólicas devido à ocorrência de vários tipos de cromossomopatias (CD), mas de menor magnitude. Os perfis metabólicos de LA associado a pré- PTD produziram modelos que, apesar do baixo poder de previsão, sugeriram alterações precoces no funcionamento da unidade fetoplacentária, hiperglicémia e stress oxidativo. Os modelos obtidos para os grupos pré- IUGR pré- PE, pré- PROM e pré-diagnóstico GDM (LA e urina materna) registaram baixo poder de previsão, indicando o pouco impacto destas condições na composição do LA e/ou urina do 2º trimestre. Os resultados obtidos demonstram as potencialidades da análise dos perfis metabólicos do LA (e, embora com base em menos estudos, da urina materna) do 2º trimestre para o desenvolvimento de novos e complementares métodos de diagnóstico, nomeadamente para FM e PTD.