996 resultados para Método de Montecarlo
Resumo:
Máster Universitario en Sistemas Inteligentes y Aplicaciones Numéricas en Ingeniería (SIANI)
Resumo:
La comparación de las diferentes ofertas presentadas en la licitación de un proyecto,con el sistema de contratación tradicional de medición abierta y precio unitario cerrado, requiere herramientas de análisis que sean capaces de discriminar propuestas que teniendo un importe global parecido pueden presentar un impacto económico muy diferente durante la ejecución. Una de las situaciones que no se detecta fácilmente con los métodos tradicionales es el comportamiento del coste real frente a las variaciones de las cantidades realmente ejecutadas en obra respecto de las estimadas en el proyecto. Este texto propone abordar esta situación mediante un sistema de análisis cuantitativo del riesgo como el método de Montecarlo. Este procedimiento, como es sabido, consiste en permitir que los datos de entrada que definen el problema varíen unas funciones de probabilidad definidas, generar un gran número de casos de prueba y tratar los resultados estadísticamente para obtener los valores finales más probables,con los parámetros necesarios para medir la fiabilidad de la estimación. Se presenta un modelo para la comparación de ofertas, desarrollado de manera que puede aplicarse en casos reales aplicando a los datos conocidos unas condiciones de variación que sean fáciles de establecer por los profesionales que realizan estas tareas. ABSTRACT: The comparison of the different bids in the tender for a project, with the traditional contract system based on unit rates open to and re-measurement, requires analysis tools that are able to discriminate proposals having a similar overall economic impact, but that might show a very different behaviour during the execution of the works. One situation not easily detected by traditional methods is the reaction of the actual cost to the changes in the exact quantity of works finally executed respect of the work estimated in the project. This paper intends to address this situation through the Monte Carlo method, a system of quantitative risk analysis. This procedure, as is known, is allows the input data defining the problem to vary some within well defined probability functions, generating a large number of test cases, the results being statistically treated to obtain the most probable final values, with the rest of the parameters needed to measure the reliability of the estimate. We present a model for the comparison of bids, designed in a way that it can be applied in real cases, based on data and assumptions that are easy to understand and set up by professionals who wish to perform these tasks.
Resumo:
El proyecto de investigación parte de la dinámica del modelo de distribución tercerizada para una compañía de consumo masivo en Colombia, especializada en lácteos, que para este estudio se ha denominado “Lactosa”. Mediante datos de panel con estudio de caso, se construyen dos modelos de demanda por categoría de producto y distribuidor y mediante simulación estocástica, se identifican las variables relevantes que inciden sus estructuras de costos. El problema se modela a partir del estado de resultados por cada uno de los cuatro distribuidores analizados en la región central del país. Se analiza la estructura de costos y el comportamiento de ventas dado un margen (%) de distribución logístico, en función de las variables independientes relevantes, y referidas al negocio, al mercado y al entorno macroeconómico, descritas en el objeto de estudio. Entre otros hallazgos, se destacan brechas notorias en los costos de distribución y costos en la fuerza de ventas, pese a la homogeneidad de segmentos. Identifica generadores de valor y costos de mayor dispersión individual y sugiere uniones estratégicas de algunos grupos de distribuidores. La modelación con datos de panel, identifica las variables relevantes de gestión que inciden sobre el volumen de ventas por categoría y distribuidor, que focaliza los esfuerzos de la dirección. Se recomienda disminuir brechas y promover desde el productor estrategias focalizadas a la estandarización de procesos internos de los distribuidores; promover y replicar los modelos de análisis, sin pretender remplazar conocimiento de expertos. La construcción de escenarios fortalece de manera conjunta y segura la posición competitiva de la compañía y sus distribuidores.
Resumo:
Discutir las ventajas y dificultades de los instrumentos y medios didácticos que se utilizan en la Enseñanza de la Física. Estudiar el papel que el ordenador juega en la Enseñanza de la Física. Elaborar un conjunto de programas para el aprendizaje de algunos temas de Física. Didáctica de la Física. El trabajo está dividido en dos partes. En la primera se realiza una discusión sobre el uso del ordenador en la Enseñanza de la Física, basado en un análisis de las publicaciones y en una experiencia personal, utilizando como base programas elaborados por el autor. En la segunda parte se presentan un conjunto de ejercicios de ordenador, en los que se combina la resolución de problemas, el aprendizaje de los métodos numéricos básicos y el manejo de un lenguaje de programación -su parte algebraica-. Programas de ordenador para resolver: variables y sistemas de unidades. Raíces de una ecuación. Derivada numérica de una función. Integración numérica. Resolución numérica de ecuaciones diferenciales y, método de Montecarlo. Conjunto de protocolos de diversas prácticas. Observación en el aula del uso de los programas por parte de los alumnos. La aplicación del ordenador posibilita: extender contenidos, comprendiendo conceptos complejos a nivel intuitivo, estudiar modelos y simular experiencias de laboratorio. El ordenador posibilita una enseñanza más individualizada y adaptada a cada alumno. El papel de los ejercicios de ordenador es combinar en un mismo formato la resolución de problemas, el aprendizaje de los métodos numéricos básicos y la programación. Con los programas se crean un conjunto rico de experiencias, de modo que los estudiantes adquieren una intuición de los distintos fenómenos físicos programados en el ordenador. La estructuración de los programas permite decidir al profesor, en cada momento, en función de la orientación de los estudios y del nivel de conocimiento de sus alumnos. Debido a que la Física está basada en conocimientos abstractos, el ordenador puede representar una etapa intermediaria que pone en contacto la teoría con la realidad. El ordenador jugará un papel importante. Como consecuencia, el profesor se verá relegado a las tareas más repetitivas, pudiendo dedicar más tiempo a la atención individual del alumno, convirtiéndose el alumno, en el sujeto de su propio progreso educativo. Para ello es necesario reestructurar los cursos, lo cual nos llevará a una concepción distinta de la educación. O sea a un cambio del centro de referencia del profesor hacia el alumno.
Resumo:
Propuesta de actividades para trabajar el currículum de matemáticas en la etapa de educación secundaria y bachillerato mediante la utilización del ordenador en el aula. Se tratan contenidos de geometría, estadística y el azar. La parte destinada a geometría aborda contenidos de geometría plana sobre comprobación de propiedades geométricas y de teoremas. En el apartado de estadística y azar se incluyen contenidos para la comprobación experimental de resultados teóricos, tratamiento y representación de datos, simulación de juegos de azar, simulación de problemas que tienen soluciones analíticas, aplicación del método de Montecarlo, y simulación de procesos aleatorios. El programa utilizado para el tratamiento de la geometría es el Cabri-Géomètre, y la hoja de cálculo Excel para la estadística y el tratamiento del azar.
Resumo:
Realizar una adaptación metodológica en el ámbito de la conceptualización del rendimiento académico. Llevar a cabo la determinación de las implicaciones teórico-formales del supuesto de unidimensionalidad en la teoría clásica de los tests. Revisar las técnicas más importantes de comprobación del supuesto de unidimensionalidad en la teoría IRT/LTT. Determinar las consecuencias de la violación del supuesto de unidimensionalidad. Elaborar y validar mediante simulación experimental una técnica para la construcción de escalas unidimensionales basada en el análisis factorial de correspondencias. Los cinco primeros objetivos implican un trabajo de revisión de toda la bibliografía reciente relacionadas con el tema, y además una reelaboración y síntesis de las aportaciones contenidas en esa bibliografía. Esa síntesis proporciona las bases para elaborar las propuestas referidas en el objetivo seis, con una metodología especial conocida como simulación experimental. El objetivo consiste en comprobar si dado un conjunto de ítems la técnica propuesta es capaz de descubrir las subescalas unidimensionales contenidas en el mismo bajo distintas condiciones experimentales. Variables experimentales: número de factores y correlación entre ellos. Se trata de comprobar cómo reacciona la técnica ante distintos tipos de violación del supuesto, de unidimensionalidad. Se aplica el método de Montecarlo. La teoría de respuesta al ítem o del rasgo latente, es un aparato teórico y matemático de gran rigor y formalidad. Es superior a la teoría clásica de los tests y también en cuanto a las aplicaciones prácticas, constituye toda una alternativa a la teoría de la puntuación verdadera. El supuesto de unidimensionalidad cobra un sentido especial en el marco de la IRT/LTT, este supuesto puede subsumirse en el más general de la independencia local o independencia condicional. Ha quedado clara la superioridad de todas aquellas técnicas que se apoyan en el supuesto. Es posible tratar de construir varios tests unidimensionales de forma que cada uno cubra una dimensión distinta del área a medir.
Resumo:
El desarrollo de este estudio se basa en el análisis de la información financiera histórica y en los problemas actuales que requieren ser mejorados a través de estrategias que medidas y controladas persigan incrementos en los resultados financieros de ARCOSA. Se considera principalmente la relación y el efecto que tienen los puntos críticos como manejo de cartera, inventario, liquidez, con los datos financieros reflejados en los estados financieros de la empresa. Por tratarse de una empresa comercializadora cuyo costo variable representa más del 88% de la venta neta, deja ver a simple vista que el nivel de ventas y el control de los gastos operacionales juegan un papel muy importante al momento de diseñar las proyecciones financieras y estrategias que permitan alcanzar los objetivos tanto de la administración como de sus directivos. De esta manera, una estimación de ventas para períodos futuros con base y sustento, se convierte en una herramienta de gran ayuda para la gestión administrativa y es el pilar con el cual se fundamentan las actividades que se van a diseñar. Para la proyección de ventas se emplea el método de Montecarlo, el cual considera como base los datos estadísticos históricos y juega a través de cuatro diferentes variables como son inflación, precio, incremento de nuevos productos y mercado de forma aleatoria para determinar valores de venta futuros en 1000 iteraciones diferentes y posibles de suceder en diversas combinaciones, aplicación que no serían posible sin el empleo de esta metodología; como resultado se puede ver proyecciones de ventas con un clic para varias combinaciones que se pueden presentar para distintas condiciones del entorno futuro.
Resumo:
Este trabajo se propone realizar un análisis de rentabilidad privada para la construcción y explotación de un lugar de eventos en Perdriel, Mendoza. En una primera parte se describen las características del estudio estableciendo el alcance de la investigación. Se desarrolla un análisis de mercado donde se busca interpretar la situación actual del sector a nivel local y establecer un marco de referencia que sirva para la identificación y la posterior valuación tanto de los costos como de los beneficios que pueden ser atribuidos al proyecto de inversión. A partir de la información que provee dicho análisis de mercado se procede al armado del flujo de fondos del proyecto, del cual mediante el uso de herramientas metodológicas se busca proveer de información útil para la toma de la decisión de ejecutar o no el proyecto de inversión.
Resumo:
Este trabajo estudia la aportación que los métodos de agregación de juicios de expertos pueden realizar en el cálculo de la peligrosidad sísmica de emplazamientos. Se han realizado cálculos en dos emplazamientos de la Península Ibérica: Mugardos (La Coruña) y Cofrentes (Valencia) que están sometidos a regímenes tectónicos distintos y que, además, alojan instalaciones industriales de gran responsabilidad. Las zonas de estudio, de 320 Km de radio, son independientes. Se ha aplicado un planteamiento probabilista a la estimación de la tasa anual de superación de valores de la aceleración horizontal de pico y se ha utilizado el Método de Montecarlo para incorporar a los resultados la incertidumbre presente en los datos relativos a la definición de cada fuente sismogenética y de su sismicidad. Los cálculos se han operado mediante un programa de ordenador, desarrollado para este trabajo, que utiliza la metodología propuesta por el Senior Seismic Hazard Analysis Commitee (1997) para la NRC. La primera conclusión de los resultados ha sido que la Atenuación es la fuente principal de incertidumbre en las estimaciones de peligrosidad en ambos casos. Dada la dificultad de completar los datos históricos disponibles de esta variable se ha estudiado el comportamiento de cuatro métodos matemáticos de agregación de juicios de expertos a la hora de estimar una ley de atenuación en un emplazamiento. Los datos de partida se han obtenido del Catálogo de Isosistas del IGN. Los sismos utilizados como variables raíz se han elegido con el criterio de cubrir uniformemente la serie histórica disponible y los valores de magnitud observados. Se ha asignado un panel de expertos particular a cada uno de los dos emplazamientos y se han aplicado a sus juicios los métodos de Cooke, equipesos, Apostolakis_Mosleh y Morris. Sus propuestas se han comparado con los datos reales para juzgar su eficacia y su facilidad de operación. A partir de los resultados se ha concluido que el método de Cooke ha mostrado el comportamiento más eficiente y robusto para ambos emplazamientos. Este método, además, ha permitido identificar, razonadamente, a aquellos expertos que no deberían haberse introducido en un panel. The present work analyses the possible contribution of the mathematical methods of aggregation in the assessment of Seismic Hazzard. Two sites, in the Iberian Peninsula, have been considered: Mugardos ( La Coruña) and Cofrentes (Valencia).Both of them are subjected to different tectonic regimes an both accommodate high value industrial plants. Their areas of concern, with radius of 320 Km, are not overlapping. A probabilistic approach has been applied in the assessment the annual probability of exceedence of the horizontal peak acceleration. The Montecarlo Method has allowed to transfer the uncertainty in the models and parameters to the final results. A computer program has been developed for this purpose. The methodology proposed by the Senior Seismic Analysis Committee (1997) for the NRC has been considered. Attenuation in Ground motion has been proved to be the main source of uncertainty in seismic hazard for both sites. Taking into account the difficulties to complete existing historical data in this subject the performance of four mathematical methods of aggregation has been studied. Original data have been obtained from the catalogs of the Spanish National Institute of Geography. The seismic events considered were chosen to cover evenly the historical records and the observed values of magnitude. A panel of experts have been applied to each site and four aggregation methods have been developed : equal weights, Cooke, Apostolakis-Mosleh and Morris The four proposals have been compaired with the actual data to judge their performance and ease of application. The results have shown that the Method of Cooke have proved the most efficient and robust for both sites. This method, besides, allow the reasoned identification of those experts who should be rejected from the panel
Resumo:
Durante las últimas décadas, científicos e ingenieros han desarrollado un gran esfuerzo en la comprensión por los temas relacionados con el impacto entre cuerpos sólidos. La complejidad del desarrollo teórico y el desconocimiento acerca del comportamiento real de los materiales en problemas de carga rápida ha limitado tradicionalmente los problemas de impacto a geometrías muy concretas de los cuerpos incidentes, sin embargo, la evolución de la velocidad en los ordenadores y las mejoras en los métodos y elementos de instrumentación han aumentado el alcance y la fiabilidad de los datos experimentales y consecuentemente han sido un nuevo impulso en el estudio en este campo. El enfoque actual de las normativas basado en el análisis de riesgos permite la posibilidad de abordar la seguridad estructural a través de modelos explícitos, en los que las variables básicas del problema se definen de forma estadística y la seguridad se fija en función de probabilidades de fallo frente a los estados límite. Los métodos de fiabilidad estructural deben ser capaces de analizar toda la información estadística; es habitual el uso del método de Montecarlo, superficie de respuesta, estimaciones puntuales, nivel 11, etc. y en todos ellos es fundamental el conocimiento de un procedimiento determinista que permita evaluar el grado de cumplimiento de los estados límite. En ésta presentación se entra directamente en los modelos deterministas de cálculo, obviando el estudio estadístico más propio de un capítulo destinado a la fiabilidad estructural. Para ello, se han recogido unas ideas acerca de cómo se aborda el problema del impacto de una forma tradicional, se comienza con los choques elásticos e inelásticos de cuerpos rígidos. Los cuerpos rígidos dan paso a cuerpos elásticos donde la colisión genera una onda que recorre el cuerpo a una velocidad finita que se refleja en los contornos generando una vibración y en consecuencia una pérdida de energía en el choque. Posteriormente se abordará el impacto con materiales plásticos donde parte de la energía se transforma en la deformación permanente. Las explosiones pueden ser tratadas de forma análoga al impacto, ya que poseen la misma característica de cargas rápidas y son consideradas solicitaciones accidentales. La diferencia fundamental se centra en que los impactos requieren la existencia de dos cuerpos mientras que las explosiones sólo requieren un receptor y es el medio transmisor, generalmente el aire, quien transmite la solicitación mediante una onda de presión. En este artículo se comentan diferentes aspectos de la naturaleza de la solicitación y de su efecto sobre las estructuras.
Resumo:
La presente investigación tiene como objetivo principal diseñar un Modelo de Gestión de Riesgos Operacionales (MGRO) según las Directrices de los Acuerdos II y III del Comité de Supervisión Bancaria de Basilea del Banco de Pagos Internacionales (CSBB-BPI). Se considera importante realizar un estudio sobre este tema dado que son los riesgos operacionales (OpR) los responsables en gran medida de las últimas crisis financieras mundiales y por la dificultad para detectarlos en las organizaciones. Se ha planteado un modelo de gestión subdividido en dos vías de influencias. La primera acoge el paradigma holístico en el que se considera que hay múltiples maneras de percibir un proceso cíclico, así como las herramientas para observar, conocer y entender el objeto o sujeto percibido. La segunda vía la representa el paradigma totalizante, en el que se obtienen datos tanto cualitativos como cuantitativos, los cuales son complementarios entre si. Por otra parte, este trabajo plantea el diseño de un programa informático de OpR Cualitativo, que ha sido diseñado para determinar la raíz de los riesgos en las organizaciones y su Valor en Riesgo Operacional (OpVaR) basado en el método del indicador básico. Aplicando el ciclo holístico al caso de estudio, se obtuvo el siguiente diseño de investigación: no experimental, univariable, transversal descriptiva, contemporánea, retrospectiva, de fuente mixta, cualitativa (fenomenológica y etnográfica) y cuantitativa (descriptiva y analítica). La toma de decisiones y recolección de información se realizó en dos fases en la unidad de estudio. En la primera se tomó en cuenta la totalidad de la empresa Corpoelec-EDELCA, en la que se presentó un universo estadístico de 4271 personas, una población de 2390 personas y una unidad de muestreo de 87 personas. Se repitió el proceso en una segunda fase, para la Central Hidroeléctrica Simón Bolívar, y se determinó un segundo universo estadístico de 300 trabajadores, una población de 191 personas y una muestra de 58 profesionales. Como fuentes de recolección de información se utilizaron fuentes primarias y secundarias. Para recabar la información primaria se realizaron observaciones directas, dos encuestas para detectar las áreas y procesos con mayor nivel de riesgos y se diseñó un cuestionario combinado con otra encuesta (ad hoc) para establecer las estimaciones de frecuencia y severidad de pérdidas operacionales. La información de fuentes secundarias se extrajo de las bases de datos de Corpoelec-EDELCA, de la IEA, del Banco Mundial, del CSBB-BPI, de la UPM y de la UC at Berkeley, entre otras. Se establecieron las distribuciones de frecuencia y de severidad de pérdidas operacionales como las variables independientes y el OpVaR como la variable dependiente. No se realizó ningún tipo de seguimiento o control a las variables bajo análisis, ya que se consideraron estas para un instante especifico y solo se determinan con la finalidad de establecer la existencia y valoración puntual de los OpR en la unidad de estudio. El análisis cualitativo planteado en el MGRO, permitió detectar que en la unidad de investigación, el 67% de los OpR detectados provienen de dos fuentes principales: procesos (32%) y eventos externos (35%). Adicionalmente, la validación del MGRO en Corpoelec-EDELCA, permitió detectar que el 63% de los OpR en la organización provienen de tres categorías principales, siendo los fraudes externos los presentes con mayor regularidad y severidad de pérdidas en la organización. La exposición al riesgo se determinó fundamentándose en la adaptación del concepto de OpVaR que generalmente se utiliza para series temporales y que en el caso de estudio presenta la primicia de aplicarlo a datos cualitativos transformados con la escala Likert. La posibilidad de utilizar distribuciones de probabilidad típicas para datos cuantitativos en distribuciones de frecuencia y severidad de pérdidas con datos de origen cualitativo fueron analizadas. Para el 64% de los OpR estudiados se obtuvo que la frecuencia tiene un comportamiento semejante al de la distribución de probabilidad de Poisson y en un 55% de los casos para la severidad de pérdidas se obtuvo a las log-normal como las distribuciones de probabilidad más comunes, con lo que se concluyó que los enfoques sugeridos por el BCBS-BIS para series de tiempo son aplicables a los datos cualitativos. Obtenidas las distribuciones de frecuencia y severidad de pérdidas, se convolucionaron estas implementando el método de Montecarlo, con lo que se obtuvieron los enfoques de distribuciones de pérdidas (LDA) para cada uno de los OpR. El OpVaR se dedujo como lo sugiere el CSBB-BPI del percentil 99,9 o 99% de cada una de las LDA, obteniéndose que los OpR presentan un comportamiento similar al sistema financiero, resultando como los de mayor peligrosidad los que se ubican con baja frecuencia y alto impacto, por su dificultad para ser detectados y monitoreados. Finalmente, se considera que el MGRO permitirá a los agentes del mercado y sus grupos de interés conocer con efectividad, fiabilidad y eficiencia el status de sus entidades, lo que reducirá la incertidumbre de sus inversiones y les permitirá establecer una nueva cultura de gestión en sus organizaciones. ABSTRACT This research has as main objective the design of a Model for Operational Risk Management (MORM) according to the guidelines of Accords II and III of the Basel Committee on Banking Supervision of the Bank for International Settlements (BCBS- BIS). It is considered important to conduct a study on this issue since operational risks (OpR) are largely responsible for the recent world financial crisis and due to the difficulty in detecting them in organizations. A management model has been designed which is divided into two way of influences. The first supports the holistic paradigm in which it is considered that there are multiple ways of perceiving a cyclical process and contains the tools to observe, know and understand the subject or object perceived. The second way is the totalizing paradigm, in which both qualitative and quantitative data are obtained, which are complementary to each other. Moreover, this paper presents the design of qualitative OpR software which is designed to determine the root of risks in organizations and their Operational Value at Risk (OpVaR) based on the basic indicator approach. Applying the holistic cycle to the case study, the following research design was obtained: non- experimental, univariate, descriptive cross-sectional, contemporary, retrospective, mixed-source, qualitative (phenomenological and ethnographic) and quantitative (descriptive and analytical). Decision making and data collection was conducted in two phases in the study unit. The first took into account the totality of the Corpoelec-EDELCA company, which presented a statistical universe of 4271 individuals, a population of 2390 individuals and a sampling unit of 87 individuals. The process was repeated in a second phase to the Simon Bolivar Hydroelectric Power Plant, and a second statistical universe of 300 workers, a population of 191 people and a sample of 58 professionals was determined. As sources of information gathering primary and secondary sources were used. To obtain the primary information direct observations were conducted and two surveys to identify the areas and processes with higher risks were designed. A questionnaire was combined with an ad hoc survey to establish estimates of frequency and severity of operational losses was also considered. The secondary information was extracted from the databases of Corpoelec-EDELCA, IEA, the World Bank, the BCBS-BIS, UPM and UC at Berkeley, among others. The operational loss frequency distributions and the operational loss severity distributions were established as the independent variables and OpVaR as the dependent variable. No monitoring or control of the variables under analysis was performed, as these were considered for a specific time and are determined only for the purpose of establishing the existence and timely assessment of the OpR in the study unit. Qualitative analysis raised in the MORM made it possible to detect that in the research unit, 67% of detected OpR come from two main sources: external processes (32%) and external events (35%). Additionally, validation of the MORM in Corpoelec-EDELCA, enabled to estimate that 63% of OpR in the organization come from three main categories, with external fraud being present more regularly and greater severity of losses in the organization. Risk exposure is determined basing on adapting the concept of OpVaR generally used for time series and in the case study it presents the advantage of applying it to qualitative data transformed with the Likert scale. The possibility of using typical probability distributions for quantitative data in loss frequency and loss severity distributions with data of qualitative origin were analyzed. For the 64% of OpR studied it was found that the frequency has a similar behavior to that of the Poisson probability distribution and 55% of the cases for loss severity it was found that the log-normal were the most common probability distributions. It was concluded that the approach suggested by the BCBS-BIS for time series can be applied to qualitative data. Once obtained the distributions of loss frequency and severity have been obtained they were subjected to convolution implementing the Monte Carlo method. Thus the loss distribution approaches (LDA) were obtained for each of the OpR. The OpVaR was derived as suggested by the BCBS-BIS 99.9 percentile or 99% of each of the LDA. It was determined that the OpR exhibits a similar behavior to the financial system, being the most dangerous those with low frequency and high impact for their difficulty in being detected and monitored. Finally, it is considered that the MORM will allows market players and their stakeholders to know with effectiveness, efficiency and reliability the status of their entities, which will reduce the uncertainty of their investments and enable them to establish a new management culture in their organizations.
Resumo:
El presente trabajo de investigación busca medir el impacto que tienen los eventos extremos, también llamados eventos de boom o eventos de crash, según la naturaleza y consecuencias de los mismos en la construcción de portafolios de inversión eficientes -- Se trabajará con los precios de acciones listadas en la bolsa de Nueva York, y con estas se construirán portafolios de inversión, siguiendo la metodología diseñada por Harry Markowitz en 1952 -- Se verificará la rentabilidad de los portafolios antes del evento extremo, y después de este, y se estudiarán las consecuencias de este sobre el portafolio -- El evento extremo que se introducirá en el estudio es la crisis económica y financiera del año 2008, que tiene sus orígenes en la crisis hipotecaria en Estados Unidos -- Con las variaciones en los precios de los activos en dicho periodo de tiempo, se espera estresar el modelo y revisar si lo propuesto por Markowitz sigue teniendo validez ante la aparición de dichos sucesos -- A partir de esto, se realizarán simulaciones con modelos en Excel y técnicas de Montecarlo, se plantearán posibles recomendaciones técnicas que debamos tener en cuenta al momento de construir nuestros portafolios, y se redactará un documento con recomendaciones para los inversionistas en general -- Como aporte adicional, se entregará el código en Visual Basic para automatizar la optimización de los portafolios
Resumo:
En la actualidad hay una especial preocupación de los inversionistas por realizar sus inversiones de manera más segura, obteniendo una buena rentabilidad y sin poner en riesgo su capital -- En este sentido, la posibilidad de generar nuevas herramientas que permitan tomar mejores decisiones de inversión es cada vez más relevante en el mundo financiero -- Así, uno de los aportes más importantes de los que se dispone para ese propósito es el de Markowitz, que propone la generación de carteras óptimamente diversificadas -- Sin embargo, el problema es cómo escoger entre algunas de estas carteras -- Por ese motivo, este proyecto tuvo como objetivo comparar el modelo de la desviación estándar (Ratio de Sharpe) con el de Value at Risk (VaR) como concepto de riesgo, para la elección de una cartera óptima dentro del entorno de un mercado desarrollado, en este caso, el mercado estadounidense, por medio de un backtesting se analizó también si el ciclo de mercado bajista, estable o alcista tiene incidencia de igual forma en esta elección -- Después de realizar el modelo y aplicarlo se concluyó que bajo situaciones normales, en un mercado desarrollado, elegir una cartera sobre otra tuvo mayores beneficios si se realiza teniendo en cuenta como concepto de riesgo el VaR bajo un modelo de Simulación de Montecarlo, en lugar de la desviación estándar -- Al aplicar este modelo a un entono menos desarrollado y más fluctuante como el colombiano, se determinó que no hay una ventaja significativa entre los dos modelos (desviación estándar y VaR)
Resumo:
Teniendo en cuenta el escaso conocimiento y utilización de las opciones reales a la hora de realizar la evaluación financiera de un proyecto, se evidencia una oportunidad de elaborar un estado del arte de esta metodología con el fin de comparar las ventajas y las desventajas respecto a los métodos tradicionales más utilizados -- Para el desarrollo de la investigación se recurrió a información secundaria dentro de las bases de datos de la universidad EAFIT y su biblioteca, donde se encontraron artículos y material académico que arrojaron datos significativos que contribuyeron al cumplimiento de los objetivos -- Dentro de los resultados se encentra que el VPN y la TIR son las metodologías más comunes para la evaluación de proyectos en gran medida por su sencilla aplicación -- Por otro lado, las opciones reales son poco utilizadas por desconocimiento y por la aparente complejidad de su aplicación -- La mayor desventaja que presentan las metodologías tradicionales es que son estáticas, rígidas, orientadas al corto plazo y no manejan eficazmente la incertidumbre, mientras que las opciones reales tienen en cuenta la flexibilidad estratégica incorporada en un proyecto
Resumo:
La estimación y gestión del riesgo con la evolución del mercado ha tomado gran relevancia, principalmente en el sector financiero y de capitales, no obstante las variables macroeconómicas que afectan el riesgo en el tiempo son cada vez más volátiles y generan un mayor nivel de incertidumbre; se puede presentar en igual medida o con un mayor impacto en empresas del sector real, principalmente en aquellas cuyas condiciones de valoración causan un mayor impacto para los inversionistas, tal es el caso de las Asociaciones Público Privadas, mecanismos de contratación que vinculan al sector privado con el público en el desarrollo de proyectos de mayor nivel, donde se requiere establecer la valoración y cuantificación del riesgo que cada una de las partes está dispuesto a asumir -- Hoy por hoy existen métodos de medición sofisticados que permiten la estimación del Value at Risk (VaR), los cuales han sido desarrollados principalmente por el sistema financiero, sin contar con una aplicación en el sector real -- Es por eso que surge la necesidad de esta investigación para obtener una metodología que permita estimar el VaR bajo los conceptos teóricos de economía, estadística y simulación