992 resultados para Método de Monte Carlo
Resumo:
El uso de aritmética de punto fijo es una opción de diseño muy extendida en sistemas con fuertes restricciones de área, consumo o rendimiento. Para producir implementaciones donde los costes se minimicen sin impactar negativamente en la precisión de los resultados debemos llevar a cabo una asignación cuidadosa de anchuras de palabra. Encontrar la combinación óptima de anchuras de palabra en coma fija para un sistema dado es un problema combinatorio NP-hard al que los diseñadores dedican entre el 25 y el 50 % del ciclo de diseño. Las plataformas hardware reconfigurables, como son las FPGAs, también se benefician de las ventajas que ofrece la aritmética de coma fija, ya que éstas compensan las frecuencias de reloj más bajas y el uso más ineficiente del hardware que hacen estas plataformas respecto a los ASICs. A medida que las FPGAs se popularizan para su uso en computación científica los diseños aumentan de tamaño y complejidad hasta llegar al punto en que no pueden ser manejados eficientemente por las técnicas actuales de modelado de señal y ruido de cuantificación y de optimización de anchura de palabra. En esta Tesis Doctoral exploramos distintos aspectos del problema de la cuantificación y presentamos nuevas metodologías para cada uno de ellos: Las técnicas basadas en extensiones de intervalos han permitido obtener modelos de propagación de señal y ruido de cuantificación muy precisos en sistemas con operaciones no lineales. Nosotros llevamos esta aproximación un paso más allá introduciendo elementos de Multi-Element Generalized Polynomial Chaos (ME-gPC) y combinándolos con una técnica moderna basada en Modified Affine Arithmetic (MAA) estadístico para así modelar sistemas que contienen estructuras de control de flujo. Nuestra metodología genera los distintos caminos de ejecución automáticamente, determina las regiones del dominio de entrada que ejercitarán cada uno de ellos y extrae los momentos estadísticos del sistema a partir de dichas soluciones parciales. Utilizamos esta técnica para estimar tanto el rango dinámico como el ruido de redondeo en sistemas con las ya mencionadas estructuras de control de flujo y mostramos la precisión de nuestra aproximación, que en determinados casos de uso con operadores no lineales llega a tener tan solo una desviación del 0.04% con respecto a los valores de referencia obtenidos mediante simulación. Un inconveniente conocido de las técnicas basadas en extensiones de intervalos es la explosión combinacional de términos a medida que el tamaño de los sistemas a estudiar crece, lo cual conlleva problemas de escalabilidad. Para afrontar este problema presen tamos una técnica de inyección de ruidos agrupados que hace grupos con las señales del sistema, introduce las fuentes de ruido para cada uno de los grupos por separado y finalmente combina los resultados de cada uno de ellos. De esta forma, el número de fuentes de ruido queda controlado en cada momento y, debido a ello, la explosión combinatoria se minimiza. También presentamos un algoritmo de particionado multi-vía destinado a minimizar la desviación de los resultados a causa de la pérdida de correlación entre términos de ruido con el objetivo de mantener los resultados tan precisos como sea posible. La presente Tesis Doctoral también aborda el desarrollo de metodologías de optimización de anchura de palabra basadas en simulaciones de Monte-Cario que se ejecuten en tiempos razonables. Para ello presentamos dos nuevas técnicas que exploran la reducción del tiempo de ejecución desde distintos ángulos: En primer lugar, el método interpolativo aplica un interpolador sencillo pero preciso para estimar la sensibilidad de cada señal, y que es usado después durante la etapa de optimización. En segundo lugar, el método incremental gira en torno al hecho de que, aunque es estrictamente necesario mantener un intervalo de confianza dado para los resultados finales de nuestra búsqueda, podemos emplear niveles de confianza más relajados, lo cual deriva en un menor número de pruebas por simulación, en las etapas iniciales de la búsqueda, cuando todavía estamos lejos de las soluciones optimizadas. Mediante estas dos aproximaciones demostramos que podemos acelerar el tiempo de ejecución de los algoritmos clásicos de búsqueda voraz en factores de hasta x240 para problemas de tamaño pequeño/mediano. Finalmente, este libro presenta HOPLITE, una infraestructura de cuantificación automatizada, flexible y modular que incluye la implementación de las técnicas anteriores y se proporciona de forma pública. Su objetivo es ofrecer a desabolladores e investigadores un entorno común para prototipar y verificar nuevas metodologías de cuantificación de forma sencilla. Describimos el flujo de trabajo, justificamos las decisiones de diseño tomadas, explicamos su API pública y hacemos una demostración paso a paso de su funcionamiento. Además mostramos, a través de un ejemplo sencillo, la forma en que conectar nuevas extensiones a la herramienta con las interfaces ya existentes para poder así expandir y mejorar las capacidades de HOPLITE. ABSTRACT Using fixed-point arithmetic is one of the most common design choices for systems where area, power or throughput are heavily constrained. In order to produce implementations where the cost is minimized without negatively impacting the accuracy of the results, a careful assignment of word-lengths is required. The problem of finding the optimal combination of fixed-point word-lengths for a given system is a combinatorial NP-hard problem to which developers devote between 25 and 50% of the design-cycle time. Reconfigurable hardware platforms such as FPGAs also benefit of the advantages of fixed-point arithmetic, as it compensates for the slower clock frequencies and less efficient area utilization of the hardware platform with respect to ASICs. As FPGAs become commonly used for scientific computation, designs constantly grow larger and more complex, up to the point where they cannot be handled efficiently by current signal and quantization noise modelling and word-length optimization methodologies. In this Ph.D. Thesis we explore different aspects of the quantization problem and we present new methodologies for each of them: The techniques based on extensions of intervals have allowed to obtain accurate models of the signal and quantization noise propagation in systems with non-linear operations. We take this approach a step further by introducing elements of MultiElement Generalized Polynomial Chaos (ME-gPC) and combining them with an stateof- the-art Statistical Modified Affine Arithmetic (MAA) based methodology in order to model systems that contain control-flow structures. Our methodology produces the different execution paths automatically, determines the regions of the input domain that will exercise them, and extracts the system statistical moments from the partial results. We use this technique to estimate both the dynamic range and the round-off noise in systems with the aforementioned control-flow structures. We show the good accuracy of our approach, which in some case studies with non-linear operators shows a 0.04 % deviation respect to the simulation-based reference values. A known drawback of the techniques based on extensions of intervals is the combinatorial explosion of terms as the size of the targeted systems grows, which leads to scalability problems. To address this issue we present a clustered noise injection technique that groups the signals in the system, introduces the noise terms in each group independently and then combines the results at the end. In this way, the number of noise sources in the system at a given time is controlled and, because of this, the combinato rial explosion is minimized. We also present a multi-way partitioning algorithm aimed at minimizing the deviation of the results due to the loss of correlation between noise terms, in order to keep the results as accurate as possible. This Ph.D. Thesis also covers the development of methodologies for word-length optimization based on Monte-Carlo simulations in reasonable times. We do so by presenting two novel techniques that explore the reduction of the execution times approaching the problem in two different ways: First, the interpolative method applies a simple but precise interpolator to estimate the sensitivity of each signal, which is later used to guide the optimization effort. Second, the incremental method revolves on the fact that, although we strictly need to guarantee a certain confidence level in the simulations for the final results of the optimization process, we can do it with more relaxed levels, which in turn implies using a considerably smaller amount of samples, in the initial stages of the process, when we are still far from the optimized solution. Through these two approaches we demonstrate that the execution time of classical greedy techniques can be accelerated by factors of up to ×240 for small/medium sized problems. Finally, this book introduces HOPLITE, an automated, flexible and modular framework for quantization that includes the implementation of the previous techniques and is provided for public access. The aim is to offer a common ground for developers and researches for prototyping and verifying new techniques for system modelling and word-length optimization easily. We describe its work flow, justifying the taken design decisions, explain its public API and we do a step-by-step demonstration of its execution. We also show, through an example, the way new extensions to the flow should be connected to the existing interfaces in order to expand and improve the capabilities of HOPLITE.
Resumo:
Se ha realizado un análisis para estimar la susceptibilidad de las laderas, en suelos de la cuenca de drenaje del río Serpis, a sufrir inestabilidades inducidas por terremotos. Para ello, se ha utilizado el denominado método de Newmark, que ha sido convenientemente modificado para contemplar la variabilidad que, de forma natural, se observa en las propiedades geotécnicas de los materiales. En el cálculo, se ha efectuado una simulación Monte Carlo, donde todas las propiedades geotécnicas que intervienen son tratadas como variables aleatorias. Los resultados obtenidos están expresados como probabilidad de que la aceleración crítica del talud sea menor o igual que 0.1g. Las susceptibilidades más elevadas se observan cuando los materiales están secos, pero en tal caso la extensión de territorio afectado es pequeña. En cambio, cuando el suelo está saturado se observa que gran parte del territorio presenta susceptibilidad Media o Baja, incluso con pendientes de 6 – 10º, frente a susceptibilidad Muy Baja – Nula, que los caracteriza cuando se encuentra seco. Se ha analizado también la posición de las zonas de mayor susceptibilidad con respecto a elementos constructivos existentes en el área.
Resumo:
This work concerns a refinement of a suboptimal dual controller for discrete time systems with stochastic parameters. The dual property means that the control signal is chosen so that estimation of the model parameters and regulation of the output signals are optimally balanced. The control signal is computed in such a way so as to minimize the variance of output around a reference value one step further, with the addition of terms in the loss function. The idea is add simple terms depending on the covariance matrix of the parameter estimates two steps ahead. An algorithm is used for the adaptive adjustment of the adjustable parameter lambda, for each step of the way. The actual performance of the proposed controller is evaluated through a Monte Carlo simulations method.
Resumo:
El presente trabajo de investigación busca medir el impacto que tienen los eventos extremos, también llamados eventos de boom o eventos de crash, según la naturaleza y consecuencias de los mismos en la construcción de portafolios de inversión eficientes -- Se trabajará con los precios de acciones listadas en la bolsa de Nueva York, y con estas se construirán portafolios de inversión, siguiendo la metodología diseñada por Harry Markowitz en 1952 -- Se verificará la rentabilidad de los portafolios antes del evento extremo, y después de este, y se estudiarán las consecuencias de este sobre el portafolio -- El evento extremo que se introducirá en el estudio es la crisis económica y financiera del año 2008, que tiene sus orígenes en la crisis hipotecaria en Estados Unidos -- Con las variaciones en los precios de los activos en dicho periodo de tiempo, se espera estresar el modelo y revisar si lo propuesto por Markowitz sigue teniendo validez ante la aparición de dichos sucesos -- A partir de esto, se realizarán simulaciones con modelos en Excel y técnicas de Montecarlo, se plantearán posibles recomendaciones técnicas que debamos tener en cuenta al momento de construir nuestros portafolios, y se redactará un documento con recomendaciones para los inversionistas en general -- Como aporte adicional, se entregará el código en Visual Basic para automatizar la optimización de los portafolios
Resumo:
En la actualidad hay una especial preocupación de los inversionistas por realizar sus inversiones de manera más segura, obteniendo una buena rentabilidad y sin poner en riesgo su capital -- En este sentido, la posibilidad de generar nuevas herramientas que permitan tomar mejores decisiones de inversión es cada vez más relevante en el mundo financiero -- Así, uno de los aportes más importantes de los que se dispone para ese propósito es el de Markowitz, que propone la generación de carteras óptimamente diversificadas -- Sin embargo, el problema es cómo escoger entre algunas de estas carteras -- Por ese motivo, este proyecto tuvo como objetivo comparar el modelo de la desviación estándar (Ratio de Sharpe) con el de Value at Risk (VaR) como concepto de riesgo, para la elección de una cartera óptima dentro del entorno de un mercado desarrollado, en este caso, el mercado estadounidense, por medio de un backtesting se analizó también si el ciclo de mercado bajista, estable o alcista tiene incidencia de igual forma en esta elección -- Después de realizar el modelo y aplicarlo se concluyó que bajo situaciones normales, en un mercado desarrollado, elegir una cartera sobre otra tuvo mayores beneficios si se realiza teniendo en cuenta como concepto de riesgo el VaR bajo un modelo de Simulación de Montecarlo, en lugar de la desviación estándar -- Al aplicar este modelo a un entono menos desarrollado y más fluctuante como el colombiano, se determinó que no hay una ventaja significativa entre los dos modelos (desviación estándar y VaR)
Resumo:
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Florestal, 2016.
Resumo:
Teniendo en cuenta el escaso conocimiento y utilización de las opciones reales a la hora de realizar la evaluación financiera de un proyecto, se evidencia una oportunidad de elaborar un estado del arte de esta metodología con el fin de comparar las ventajas y las desventajas respecto a los métodos tradicionales más utilizados -- Para el desarrollo de la investigación se recurrió a información secundaria dentro de las bases de datos de la universidad EAFIT y su biblioteca, donde se encontraron artículos y material académico que arrojaron datos significativos que contribuyeron al cumplimiento de los objetivos -- Dentro de los resultados se encentra que el VPN y la TIR son las metodologías más comunes para la evaluación de proyectos en gran medida por su sencilla aplicación -- Por otro lado, las opciones reales son poco utilizadas por desconocimiento y por la aparente complejidad de su aplicación -- La mayor desventaja que presentan las metodologías tradicionales es que son estáticas, rígidas, orientadas al corto plazo y no manejan eficazmente la incertidumbre, mientras que las opciones reales tienen en cuenta la flexibilidad estratégica incorporada en un proyecto
Resumo:
Tese (doutorado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Florestal, Programa de Pós-Graduação em Ciências Florestais, 2015.
Resumo:
Em outubro de 2012, a Direção de Análise e Gestão da Informação (DAGI), em colaboração com a Superintendência do Pessoal (SP) e Direção do Pessoal (DP), iniciou o desenvolvimento de um protótipo de simulador, que designou por “Protótipo Fluxo de Carreiras”. Este simulador permite parametrizar diversos fatores que condicionam o desenvolvimento de carreira dos militares e que estão associados a mecanismos reguladores de carreira que se encontram vertidos no Estatuto dos Militares das Forças Armadas (EMFAR). Para cada ano do período de simulação, a situação de cada militar de uma determinada classe é atualizada e são verificadas as condições para a ocorrência de promoções e passagens à reserva. O evento “passagem à reserva” de um militar pode ter origem em regras determinísticas (exemplo: militar atinge a idade limite de passagem à reserva no seu posto) ou em condições estocásticas ou aleatórias (exemplos: óbito, exclusão da promoção, requerer voluntariamente a passagem à reserva, etc.). Estas últimas situações resultam do fenómeno de erosão dos quadros que pode ser observado a partir do histórico de saídas desta natureza. Até 2015, o simulador de carreiras não comtemplava um modelo de erosão, pelo que os resultados disponibilizados (indicadores de fluxo de carreira) dependiam exclusivamente de mecanismos determinísticos. Desta forma estes resultados apresentam uma natureza “pessimista” e com fraca aderência à realidade. O presente trabalho tem como objetivo construir um modelo descritivo da erosãodos militares oficiais da Marinha, tendo por base dados de saídas (excetuando saídas relacionadas com regras determinísticas previstas no EMFAR) no período de 2008 a2015. Para cada classe da categoria de oficiais é estimada uma função de probabilidadecondicional ao tempo de serviço efetivo ou à idade do militar que representa apropensão para um militar sair do quadro antes de ser verificada uma condição determinística. Estas funções foram integradas no simulador de carreiras para que os resultados possam reproduzir a componente de erosão. Usando o método de simulação de Monte Carlo é possível obter a distribuição dos indicadores de fluxo de carreira. Porfim, objetiva-se realizar uma comparação entre uma simulação com fatores estocásticos (com erosão) e uma simulação considerando apenas fatores determinísticos (semerosão). Este trabalho visa refletir o panorama atual da erosão de pessoal na Marinha, permitindo assim melhorar a qualidade das previsões de efetivos ao longo do tempo bem como aumentar a capacidade de intervenção e resposta na identificação e correção antecipada de possíveis estruturações.
Resumo:
La estimación y gestión del riesgo con la evolución del mercado ha tomado gran relevancia, principalmente en el sector financiero y de capitales, no obstante las variables macroeconómicas que afectan el riesgo en el tiempo son cada vez más volátiles y generan un mayor nivel de incertidumbre; se puede presentar en igual medida o con un mayor impacto en empresas del sector real, principalmente en aquellas cuyas condiciones de valoración causan un mayor impacto para los inversionistas, tal es el caso de las Asociaciones Público Privadas, mecanismos de contratación que vinculan al sector privado con el público en el desarrollo de proyectos de mayor nivel, donde se requiere establecer la valoración y cuantificación del riesgo que cada una de las partes está dispuesto a asumir -- Hoy por hoy existen métodos de medición sofisticados que permiten la estimación del Value at Risk (VaR), los cuales han sido desarrollados principalmente por el sistema financiero, sin contar con una aplicación en el sector real -- Es por eso que surge la necesidad de esta investigación para obtener una metodología que permita estimar el VaR bajo los conceptos teóricos de economía, estadística y simulación
Resumo:
Isagen es una empresa que posee cerca del 20% de participación del mercado nacional de generación de energía, las proyecciones del crecimiento de la demanda de energía para los próximos tres años, según UPME, oscilan entre un 2.0% y un 4.8%, por esta razón Isagen ha realizado importantes proyectos de crecimiento y ampliación de su capacidad, como la hidroeléctrica de Sogamoso recientemente, y ahora han iniciado con un proyecto de similares magnitudes como lo es Cañafisto, con la que ampliará su capacidad en 5.740 GW / año, y consideramos que aunque en el corto plazo los flujos de caja estarán ajustados por la alta inversión que este megaproyecto demanda, las condiciones y los fundamentales de Isagen soportan un precio mayor
Avaliação econômica e de risco em sistema de produção de soja na região de Santarém, estado do Pará.
Resumo:
A soja tem contribuição importante no cenário brasileiro. Sua expansão para fronteira amazônica tem chamado atenção, incluindo o Estado do Pará, particularmente pelos fatores de custo de produção, devido à carência de infraestrutura e mercado de insumos. Neste contexto a análise econômica e de risco dos polos produtores de soja no Pará é importante para elaboração de medidas adequadas para sustentabilidade econômica do investimento. A avaliação econômicofinanceira dos sistemas ocorreu com base na Análise de Custo-Benefício (ACB), utilizando como indicador a Receita Líquida obtida. Foi realizada, uma análise de eficiência que considera o fator risco, tendo sido utilizado o método de simulação monte-carlo, por meio do software @-RISK. De acordo com as estatísticas da receita líquida, o sistema produtivo de soja se mostra com muita variabilidade, de acordo com o desvio padrão, máxima e mínima. De acordo com a porcentagem de risco a soja apresentou nível médio a elevado de risco.
Resumo:
This work assessed the environmental impacts of the production and use of 1 MJ of hydrous ethanol (E100) in Brazil in prospective scenarios (2020-2030), considering the deployment of technologies currently under development and better agricultural practices. The life cycle assessment technique was employed using the CML method for the life cycle impact assessment and the Monte Carlo method for the uncertainty analysis. Abiotic depletion, global warming, human toxicity, ecotoxicity, photochemical oxidation, acidification, and eutrophication were the environmental impacts categories analyzed. Results indicate that the proposed improvements (especially no-til farming-scenarios s2 and s4) would lead to environmental benefits in prospective scenarios compared to the current ethanol production (scenario s0). Combined first and second generation ethanol production (scenarios s3 and s4) would require less agricultural land but would not perform better than the projected first generation ethanol, although the uncertainties are relatively high. The best use of 1 ha of sugar cane was also assessed, considering the displacement of the conventional products by ethanol and electricity. No-til practices combined with the production of first generation ethanol and electricity (scenario s2) would lead to the largest mitigation effects for global warming and abiotic depletion. For the remaining categories, emissions would not be mitigated with the utilization of the sugar cane products. However, this conclusion is sensitive to the displaced electricity sources.
Resumo:
Often in biomedical research, we deal with continuous (clustered) proportion responses ranging between zero and one quantifying the disease status of the cluster units. Interestingly, the study population might also consist of relatively disease-free as well as highly diseased subjects, contributing to proportion values in the interval [0, 1]. Regression on a variety of parametric densities with support lying in (0, 1), such as beta regression, can assess important covariate effects. However, they are deemed inappropriate due to the presence of zeros and/or ones. To evade this, we introduce a class of general proportion density, and further augment the probabilities of zero and one to this general proportion density, controlling for the clustering. Our approach is Bayesian and presents a computationally convenient framework amenable to available freeware. Bayesian case-deletion influence diagnostics based on q-divergence measures are automatic from the Markov chain Monte Carlo output. The methodology is illustrated using both simulation studies and application to a real dataset from a clinical periodontology study.
Resumo:
A combination of the variational principle, expectation value and Quantum Monte Carlo method is used to solve the Schrödinger equation for some simple systems. The results are accurate and the simplicity of this version of the Variational Quantum Monte Carlo method provides a powerful tool to teach alternative procedures and fundamental concepts in quantum chemistry courses. Some numerical procedures are described in order to control accuracy and computational efficiency. The method was applied to the ground state energies and a first attempt to obtain excited states is described.