940 resultados para Monte Carlo, Método de


Relevância:

90.00% 90.00%

Publicador:

Resumo:

The increasing economic competition drives the industry to implement tools that improve their processes efficiencies. The process automation is one of these tools, and the Real Time Optimization (RTO) is an automation methodology that considers economic aspects to update the process control in accordance with market prices and disturbances. Basically, RTO uses a steady-state phenomenological model to predict the process behavior, and then, optimizes an economic objective function subject to this model. Although largely implemented in industry, there is not a general agreement about the benefits of implementing RTO due to some limitations discussed in the present work: structural plant/model mismatch, identifiability issues and low frequency of set points update. Some alternative RTO approaches have been proposed in literature to handle the problem of structural plant/model mismatch. However, there is not a sensible comparison evaluating the scope and limitations of these RTO approaches under different aspects. For this reason, the classical two-step method is compared to more recently derivative-based methods (Modifier Adaptation, Integrated System Optimization and Parameter estimation, and Sufficient Conditions of Feasibility and Optimality) using a Monte Carlo methodology. The results of this comparison show that the classical RTO method is consistent, providing a model flexible enough to represent the process topology, a parameter estimation method appropriate to handle measurement noise characteristics and a method to improve the sample information quality. At each iteration, the RTO methodology updates some key parameter of the model, where it is possible to observe identifiability issues caused by lack of measurements and measurement noise, resulting in bad prediction ability. Therefore, four different parameter estimation approaches (Rotational Discrimination, Automatic Selection and Parameter estimation, Reparametrization via Differential Geometry and classical nonlinear Least Square) are evaluated with respect to their prediction accuracy, robustness and speed. The results show that the Rotational Discrimination method is the most suitable to be implemented in a RTO framework, since it requires less a priori information, it is simple to be implemented and avoid the overfitting caused by the Least Square method. The third RTO drawback discussed in the present thesis is the low frequency of set points update, this problem increases the period in which the process operates at suboptimum conditions. An alternative to handle this problem is proposed in this thesis, by integrating the classic RTO and Self-Optimizing control (SOC) using a new Model Predictive Control strategy. The new approach demonstrates that it is possible to reduce the problem of low frequency of set points updates, improving the economic performance. Finally, the practical aspects of the RTO implementation are carried out in an industrial case study, a Vapor Recompression Distillation (VRD) process located in Paulínea refinery from Petrobras. The conclusions of this study suggest that the model parameters are successfully estimated by the Rotational Discrimination method; the RTO is able to improve the process profit in about 3%, equivalent to 2 million dollars per year; and the integration of SOC and RTO may be an interesting control alternative for the VRD process.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

A engenharia é a ciência que transforma os conhecimentos das disciplinas básicas aplicadas a fatos reais. Nosso mundo está rodeado por essas realizações da engenharia, e é necessário que as pessoas se sintam confortáveis e seguras nas mesmas. Assim, a segurança se torna um fator importante que deve ser considerado em qualquer projeto. Na engenharia naval, um apropriado nível de segurança e, em consequência, um correto desenho estrutural é baseado, atualmente, em estudos determinísticos com o objetivo de obter estruturas capazes de suportar o pior cenário possível de solicitações durante um período de tempo determinado. A maior parte das solicitações na estrutura de um navio se deve à ação da natureza (ventos, ondas, correnteza e tempestades), ou, ainda, aos erros cometidos por humanos (explosões internas, explosões externas e colisões). Devido à aleatoriedade destes eventos, a confiabilidade estrutural de um navio deveria ser considerada como um problema estocástico sob condições ambientais bem caracterizadas. A metodologia probabilística, baseada em estatística e incertezas, oferece uma melhor perspectiva dos fenômenos reais que acontecem na estrutura dos navios. Esta pesquisa tem como objetivo apresentar resultados de confiabilidade estrutural em projetos e planejamento da manutenção para a chapa do fundo dos cascos dos navios, as quais são submetidas a esforços variáveis pela ação das ondas do mar e da corrosão. Foram estudados modelos estatísticos para a avaliação da estrutura da viga-navio e para o detalhe estrutural da chapa do fundo. Na avaliação da estrutura da viga-navio, o modelo desenvolvido consiste em determinar as probabilidades de ocorrência das solicitações na estrutura, considerando a deterioração por corrosão, com base numa investigação estatística da variação dos esforços em função das ondas e a deterioração em função de uma taxa de corrosão padrão recomendada pela DET NORSKE VERITAS (DNV). A abordagem para avaliação da confiabilidade dependente do tempo é desenvolvida com base nas curvas de resistências e solicitações (R-S) determinadas pela utilização do método de Monte Carlo. Uma variação estatística de longo prazo das adversidades é determinada pelo estudo estatístico de ondas em longo prazo e ajustada por uma distribuição com base numa vida de projeto conhecida. Constam no trabalho resultados da variação da confiabilidade ao longo do tempo de um navio petroleiro. O caso de estudo foi simplificado para facilitar a obtenção de dados, com o objetivo de corroborar a metodologia desenvolvida.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Se ha realizado un análisis para estimar la susceptibilidad de las laderas, en suelos de la cuenca de drenaje del río Serpis, a sufrir inestabilidades inducidas por terremotos. Para ello, se ha utilizado el denominado método de Newmark, que ha sido convenientemente modificado para contemplar la variabilidad que, de forma natural, se observa en las propiedades geotécnicas de los materiales. En el cálculo, se ha efectuado una simulación Monte Carlo, donde todas las propiedades geotécnicas que intervienen son tratadas como variables aleatorias. Los resultados obtenidos están expresados como probabilidad de que la aceleración crítica del talud sea menor o igual que 0.1g. Las susceptibilidades más elevadas se observan cuando los materiales están secos, pero en tal caso la extensión de territorio afectado es pequeña. En cambio, cuando el suelo está saturado se observa que gran parte del territorio presenta susceptibilidad Media o Baja, incluso con pendientes de 6 – 10º, frente a susceptibilidad Muy Baja – Nula, que los caracteriza cuando se encuentra seco. Se ha analizado también la posición de las zonas de mayor susceptibilidad con respecto a elementos constructivos existentes en el área.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

This work concerns a refinement of a suboptimal dual controller for discrete time systems with stochastic parameters. The dual property means that the control signal is chosen so that estimation of the model parameters and regulation of the output signals are optimally balanced. The control signal is computed in such a way so as to minimize the variance of output around a reference value one step further, with the addition of terms in the loss function. The idea is add simple terms depending on the covariance matrix of the parameter estimates two steps ahead. An algorithm is used for the adaptive adjustment of the adjustable parameter lambda, for each step of the way. The actual performance of the proposed controller is evaluated through a Monte Carlo simulations method.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El reactor multipropósito RA-10 que se construirá en Ezeiza tiene como objetivo principal aumentar la producción de radioisótopos destinados al diagnóstico de enfermedades; adicionalmente el proyecto RA-10 permitirá ofrecer al sistema científico-tecnológico oportunidades de investigación, desarrollo y producción. Entre ellas se contará con una facilidad de dopaje de silicio a través de transmutación neutrónica para producir material semiconductor. La principal ventaja de esta técnica de fabricación es que se obtiene el semiconductor más homogéneamente dopado del mercado. Esto se logra irradiando a la pieza con un flujo neutrónico axialmente uniforme. La uniformidad axial se obtiene diseñando un aplanador de flujo que consiste en un conjunto de anillos de acero de diferentes espesores para lograr aplanar el perfil de flujo neutrónico que irradia al silicio. El objetivo de este trabajo es diseñar e implementar un algoritmo que permita calcular los espesores óptimos de acero de forma tal de modificar el perfil de flujo neutrónico que se genera en el núcleo para uniformizarlo lo más posible. Se proponen y evalúan mejoras para incrementar el valor del flujo neutrónico al cual se uniformiza. Posteriormente se evalúan los tiempos necesarios para obtener diferentes resistividades objetivo y se realizan cálculos de activación neutrónica para determinar los tiempos de decaimiento necesarios para cumplir los límites de actividad requeridos. Se realizan además cálculos de calentamiento para determinar la potencia que se debe disipar para refrigerar la facilidad.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El reactor multipropósito RA-10 que se construirá en Ezeiza tiene como objetivo principal aumentar la producción de radioisótopos destinados al diagnóstico de enfermedades; adicionalmente el proyecto RA-10 permitirá ofrecer al sistema científico-tecnológico oportunidades de investigación, desarrollo y producción. Entre ellas se contará con una facilidad de dopaje de silicio a través de transmutación neutrónica para producir material semiconductor. La principal ventaja de esta técnica de fabricación es que se obtiene el semiconductor más homogéneamente dopado del mercado. Esto se logra irradiando a la pieza con un flujo neutrónico axialmente uniforme. La uniformidad axial se obtiene diseñando un aplanador de flujo que consiste en un conjunto de anillos de acero de diferentes espesores para lograr aplanar el perfil de flujo neutrónico que irradia al silicio. El objetivo de este trabajo es diseñar e implementar un algoritmo que permita calcular los espesores óptimos de acero de forma tal de modificar el perfil de flujo neutrónico que se genera en el núcleo para uniformizarlo lo más posible. Se proponen y evalúan mejoras para incrementar el valor del flujo neutrónico al cual se uniformiza. Posteriormente se evalúan los tiempos necesarios para obtener diferentes resistividades objetivo y se realizan cálculos de activación neutrónica para determinar los tiempos de decaimiento necesarios para cumplir los límites de actividad requeridos. Se realizan además cálculos de calentamiento para determinar la potencia que se debe disipar para refrigerar la facilidad.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El presente trabajo de investigación busca medir el impacto que tienen los eventos extremos, también llamados eventos de boom o eventos de crash, según la naturaleza y consecuencias de los mismos en la construcción de portafolios de inversión eficientes -- Se trabajará con los precios de acciones listadas en la bolsa de Nueva York, y con estas se construirán portafolios de inversión, siguiendo la metodología diseñada por Harry Markowitz en 1952 -- Se verificará la rentabilidad de los portafolios antes del evento extremo, y después de este, y se estudiarán las consecuencias de este sobre el portafolio -- El evento extremo que se introducirá en el estudio es la crisis económica y financiera del año 2008, que tiene sus orígenes en la crisis hipotecaria en Estados Unidos -- Con las variaciones en los precios de los activos en dicho periodo de tiempo, se espera estresar el modelo y revisar si lo propuesto por Markowitz sigue teniendo validez ante la aparición de dichos sucesos -- A partir de esto, se realizarán simulaciones con modelos en Excel y técnicas de Montecarlo, se plantearán posibles recomendaciones técnicas que debamos tener en cuenta al momento de construir nuestros portafolios, y se redactará un documento con recomendaciones para los inversionistas en general -- Como aporte adicional, se entregará el código en Visual Basic para automatizar la optimización de los portafolios

Relevância:

90.00% 90.00%

Publicador:

Resumo:

The recently reported Monte Carlo Random Path Sampling method (RPS) is here improved and its application is expanded to the study of the 2D and 3D Ising and discrete Heisenberg models. The methodology was implemented to allow use in both CPU-based high-performance computing infrastructures (C/MPI) and GPU-based (CUDA) parallel computation, with significant computational performance gains. Convergence is discussed, both in terms of free energy and magnetization dependence on field/temperature. From the calculated magnetization-energy joint density of states, fast calculations of field and temperature dependent thermodynamic properties are performed, including the effects of anisotropy on coercivity, and the magnetocaloric effect. The emergence of first-order magneto-volume transitions in the compressible Ising model is interpreted using the Landau theory of phase transitions. Using metallic Gadolinium as a real-world example, the possibility of using RPS as a tool for computational magnetic materials design is discussed. Experimental magnetic and structural properties of a Gadolinium single crystal are compared to RPS-based calculations using microscopic parameters obtained from Density Functional Theory.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

O prognóstico da perda dentária é um dos principais problemas na prática clínica de medicina dentária. Um dos principais fatores prognósticos é a quantidade de suporte ósseo do dente, definido pela área da superfície radicular dentária intraóssea. A estimação desta grandeza tem sido realizada por diferentes metodologias de investigação com resultados heterogéneos. Neste trabalho utilizamos o método da planimetria com microtomografia para calcular a área da superfície radicular (ASR) de uma amostra de cinco dentes segundos pré-molares inferiores obtida da população portuguesa, com o objetivo final de criar um modelo estatístico para estimar a área de superfície radicular intraóssea a partir de indicadores clínicos da perda óssea. Por fim propomos um método para aplicar os resultados na prática. Os dados referentes à área da superfície radicular, comprimento total do dente (CT) e dimensão mésio-distal máxima da coroa (MDeq) serviram para estabelecer as relações estatísticas entre variáveis e definir uma distribuição normal multivariada. Por fim foi criada uma amostra de 37 observações simuladas a partir da distribuição normal multivariada definida e estatisticamente idênticas aos dados da amostra de cinco dentes. Foram ajustados cinco modelos lineares generalizados aos dados simulados. O modelo estatístico foi selecionado segundo os critérios de ajustamento, preditibilidade, potência estatística, acurácia dos parâmetros e da perda de informação, e validado pela análise gráfica de resíduos. Apoiados nos resultados propomos um método em três fases para estimação área de superfície radicular perdida/remanescente. Na primeira fase usamos o modelo estatístico para estimar a área de superfície radicular, na segunda estimamos a proporção (decis) de raiz intraóssea usando uma régua de Schei adaptada e na terceira multiplicamos o valor obtido na primeira fase por um coeficiente que representa a proporção de raiz perdida (ASRp) ou da raiz remanescente (ASRr) para o decil estimado na segunda fase. O ponto forte deste estudo foi a aplicação de metodologia estatística validada para operacionalizar dados clínicos na estimação de suporte ósseo perdido. Como pontos fracos consideramos a aplicação destes resultados apenas aos segundos pré-molares mandibulares e a falta de validação clínica.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En la actualidad hay una especial preocupación de los inversionistas por realizar sus inversiones de manera más segura, obteniendo una buena rentabilidad y sin poner en riesgo su capital -- En este sentido, la posibilidad de generar nuevas herramientas que permitan tomar mejores decisiones de inversión es cada vez más relevante en el mundo financiero -- Así, uno de los aportes más importantes de los que se dispone para ese propósito es el de Markowitz, que propone la generación de carteras óptimamente diversificadas -- Sin embargo, el problema es cómo escoger entre algunas de estas carteras -- Por ese motivo, este proyecto tuvo como objetivo comparar el modelo de la desviación estándar (Ratio de Sharpe) con el de Value at Risk (VaR) como concepto de riesgo, para la elección de una cartera óptima dentro del entorno de un mercado desarrollado, en este caso, el mercado estadounidense, por medio de un backtesting se analizó también si el ciclo de mercado bajista, estable o alcista tiene incidencia de igual forma en esta elección -- Después de realizar el modelo y aplicarlo se concluyó que bajo situaciones normales, en un mercado desarrollado, elegir una cartera sobre otra tuvo mayores beneficios si se realiza teniendo en cuenta como concepto de riesgo el VaR bajo un modelo de Simulación de Montecarlo, en lugar de la desviación estándar -- Al aplicar este modelo a un entono menos desarrollado y más fluctuante como el colombiano, se determinó que no hay una ventaja significativa entre los dos modelos (desviación estándar y VaR)

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Florestal, 2016.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Teniendo en cuenta el escaso conocimiento y utilización de las opciones reales a la hora de realizar la evaluación financiera de un proyecto, se evidencia una oportunidad de elaborar un estado del arte de esta metodología con el fin de comparar las ventajas y las desventajas respecto a los métodos tradicionales más utilizados -- Para el desarrollo de la investigación se recurrió a información secundaria dentro de las bases de datos de la universidad EAFIT y su biblioteca, donde se encontraron artículos y material académico que arrojaron datos significativos que contribuyeron al cumplimiento de los objetivos -- Dentro de los resultados se encentra que el VPN y la TIR son las metodologías más comunes para la evaluación de proyectos en gran medida por su sencilla aplicación -- Por otro lado, las opciones reales son poco utilizadas por desconocimiento y por la aparente complejidad de su aplicación -- La mayor desventaja que presentan las metodologías tradicionales es que son estáticas, rígidas, orientadas al corto plazo y no manejan eficazmente la incertidumbre, mientras que las opciones reales tienen en cuenta la flexibilidad estratégica incorporada en un proyecto

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Em outubro de 2012, a Direção de Análise e Gestão da Informação (DAGI), em colaboração com a Superintendência do Pessoal (SP) e Direção do Pessoal (DP), iniciou o desenvolvimento de um protótipo de simulador, que designou por “Protótipo Fluxo de Carreiras”. Este simulador permite parametrizar diversos fatores que condicionam o desenvolvimento de carreira dos militares e que estão associados a mecanismos reguladores de carreira que se encontram vertidos no Estatuto dos Militares das Forças Armadas (EMFAR). Para cada ano do período de simulação, a situação de cada militar de uma determinada classe é atualizada e são verificadas as condições para a ocorrência de promoções e passagens à reserva. O evento “passagem à reserva” de um militar pode ter origem em regras determinísticas (exemplo: militar atinge a idade limite de passagem à reserva no seu posto) ou em condições estocásticas ou aleatórias (exemplos: óbito, exclusão da promoção, requerer voluntariamente a passagem à reserva, etc.). Estas últimas situações resultam do fenómeno de erosão dos quadros que pode ser observado a partir do histórico de saídas desta natureza. Até 2015, o simulador de carreiras não comtemplava um modelo de erosão, pelo que os resultados disponibilizados (indicadores de fluxo de carreira) dependiam exclusivamente de mecanismos determinísticos. Desta forma estes resultados apresentam uma natureza “pessimista” e com fraca aderência à realidade. O presente trabalho tem como objetivo construir um modelo descritivo da erosãodos militares oficiais da Marinha, tendo por base dados de saídas (excetuando saídas relacionadas com regras determinísticas previstas no EMFAR) no período de 2008 a2015. Para cada classe da categoria de oficiais é estimada uma função de probabilidadecondicional ao tempo de serviço efetivo ou à idade do militar que representa apropensão para um militar sair do quadro antes de ser verificada uma condição determinística. Estas funções foram integradas no simulador de carreiras para que os resultados possam reproduzir a componente de erosão. Usando o método de simulação de Monte Carlo é possível obter a distribuição dos indicadores de fluxo de carreira. Porfim, objetiva-se realizar uma comparação entre uma simulação com fatores estocásticos (com erosão) e uma simulação considerando apenas fatores determinísticos (semerosão). Este trabalho visa refletir o panorama atual da erosão de pessoal na Marinha, permitindo assim melhorar a qualidade das previsões de efetivos ao longo do tempo bem como aumentar a capacidade de intervenção e resposta na identificação e correção antecipada de possíveis estruturações.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La estimación y gestión del riesgo con la evolución del mercado ha tomado gran relevancia, principalmente en el sector financiero y de capitales, no obstante las variables macroeconómicas que afectan el riesgo en el tiempo son cada vez más volátiles y generan un mayor nivel de incertidumbre; se puede presentar en igual medida o con un mayor impacto en empresas del sector real, principalmente en aquellas cuyas condiciones de valoración causan un mayor impacto para los inversionistas, tal es el caso de las Asociaciones Público Privadas, mecanismos de contratación que vinculan al sector privado con el público en el desarrollo de proyectos de mayor nivel, donde se requiere establecer la valoración y cuantificación del riesgo que cada una de las partes está dispuesto a asumir -- Hoy por hoy existen métodos de medición sofisticados que permiten la estimación del Value at Risk (VaR), los cuales han sido desarrollados principalmente por el sistema financiero, sin contar con una aplicación en el sector real -- Es por eso que surge la necesidad de esta investigación para obtener una metodología que permita estimar el VaR bajo los conceptos teóricos de economía, estadística y simulación

Relevância:

90.00% 90.00%

Publicador:

Resumo:

The main objective of this study is to apply recently developed methods of physical-statistic to time series analysis, particularly in electrical induction s profiles of oil wells data, to study the petrophysical similarity of those wells in a spatial distribution. For this, we used the DFA method in order to know if we can or not use this technique to characterize spatially the fields. After obtain the DFA values for all wells, we applied clustering analysis. To do these tests we used the non-hierarchical method called K-means. Usually based on the Euclidean distance, the K-means consists in dividing the elements of a data matrix N in k groups, so that the similarities among elements belonging to different groups are the smallest possible. In order to test if a dataset generated by the K-means method or randomly generated datasets form spatial patterns, we created the parameter Ω (index of neighborhood). High values of Ω reveals more aggregated data and low values of Ω show scattered data or data without spatial correlation. Thus we concluded that data from the DFA of 54 wells are grouped and can be used to characterize spatial fields. Applying contour level technique we confirm the results obtained by the K-means, confirming that DFA is effective to perform spatial analysis