1000 resultados para Análisis estocástico
Resumo:
Tesis (Doctorado en Ciencias Agrícolas con Especialidad en Agua-Suelo) UANL
Resumo:
The purpose of this expository arti le is to present a self- ontained overview of some results on the hara terization of the optimal value fun tion of a sto hasti target problem as (dis ontinuous) vis osity solution of a ertain dynami programming PDE and its appli ation to the problem of hedging ontingent laims in the presen e of portfolio onstraints and large investors
Resumo:
Este documento analiza el comportamiento de la tasa de cambio del peso colombiano contra el dólar americano durante el periodo en el cual se mantuvo una banda monetaria (enero 1994-septiembre 1999). Se ofrece un análisis descriptivo del cual combina la implementación de la política monetaria, una descripción de la estructura de mercado y sus participantes, y finalmente la evolución del comportamiento de la tasa de cambio. Dado el hecho de que una relación lineal no es suficiente para explicar la evolución de la tasa de cambio nominal en términos de la oferta y demanda del sector real y las posiciones de cambio del sistema financiero, se utilizan técnicas de redes neurales con el fin de obtener algún poder explicativo sobre la no linealidad de las series de tiempo. Consecuentemente se ejecutan test estadísticos, entre ellos test de no linealidad, con el fin de analizar más a profundidad las propiedades de la información de las serie de rendimientos y se expande un análisis previo de un modelo estocástico con tres regímenes de volatilidad y reversión a la media.
Resumo:
La verificación y el análisis de programas con características probabilistas es una tarea necesaria del quehacer científico y tecnológico actual. El éxito y su posterior masificación de las implementaciones de protocolos de comunicación a nivel hardware y soluciones probabilistas a problemas distribuidos hacen más que interesante el uso de agentes estocásticos como elementos de programación. En muchos de estos casos el uso de agentes aleatorios produce soluciones mejores y más eficientes; en otros proveen soluciones donde es imposible encontrarlas por métodos tradicionales. Estos algoritmos se encuentran generalmente embebidos en múltiples mecanismos de hardware, por lo que un error en los mismos puede llegar a producir una multiplicación no deseada de sus efectos nocivos.Actualmente el mayor esfuerzo en el análisis de programas probabilísticos se lleva a cabo en el estudio y desarrollo de herramientas denominadas chequeadores de modelos probabilísticos. Las mismas, dado un modelo finito del sistema estocástico, obtienen de forma automática varias medidas de performance del mismo. Aunque esto puede ser bastante útil a la hora de verificar programas, para sistemas de uso general se hace necesario poder chequear especificaciones más completas que hacen a la corrección del algoritmo. Incluso sería interesante poder obtener automáticamente las propiedades del sistema, en forma de invariantes y contraejemplos.En este proyecto se pretende abordar el problema de análisis estático de programas probabilísticos mediante el uso de herramientas deductivas como probadores de teoremas y SMT solvers. Las mismas han mostrado su madurez y eficacia en atacar problemas de la programación tradicional. Con el fin de no perder automaticidad en los métodos, trabajaremos dentro del marco de "Interpretación Abstracta" el cual nos brinda un delineamiento para nuestro desarrollo teórico. Al mismo tiempo pondremos en práctica estos fundamentos mediante implementaciones concretas que utilicen aquellas herramientas.
Resumo:
En este trabajo se construye un modelo de Equilibrio General Dinámico Estocástico (DSGE) con sector informal y rigideces en precios, usando como marco de análisis la teoría de búsqueda y emparejamiento del mercado de trabajo. El objetivo principal es analizar el efecto de los diferentes tipos de choques económicos sobre las principales variables del mercado laboral, en una economía con presencia importante del sector informal. Igualmente se estudia el efecto de la política monetaria, ya que la presencia de este sector afecta la dinámica del ciclo económico, y por ende los mecanismos de transmisión de la política monetaria. En particular, se analiza la dinámica del modelo bajo diferentes reglas de política monetaria y se compara el bienestar agente representativo generado por cada una de estas reglas.
Resumo:
En este trabajo se construye un modelo de Equilibrio General Dinámico Estocástico (DSGE por su siglas en inglés) con sector informal y rigideces en precios, usando como marco de análisis la teoría de búsqueda y emparejamiento del mercado de trabajo. El objetivo principal es analizar el efecto de los diferentes tipos de choques económicos sobre las principales variables del mercado laboral, en una economía con presencia importante del sector informal. Igualmente se estudia el efecto de la política monetaria, ya que la presencia de este sector afecta la dinámica del ciclo económico, y por ende los mecanismos de transmisión de la política monetaria.
Resumo:
El presente trabajo desarrolla un modelo macroeconómico de equilibrio general dinámico y estocástico (DSGE), con el fin de analizar los efectos macroeconómicos que se derivan de simular un choque positivo al componente estocástico de la productividad del sector minero-energético. Este hecho genera un aumento generalizado de los salarios en el sector formal y en el recaudo tributario, incrementando el consumo total de los miembros del hogar. Esto genera un incremento del precio de los bienes no transables relativo al precio de los bienes transables, disminuyendo la tasa de cambio real (apreciación) y provocando un desplazamiento de los recursos productivos, desde el sector transable (manufacturero) al no-transable, seguido de un aumento en el PIB y empleo formal de la economía. Esto hace que el sector formal agregado absorba trabajadores desde el sector informal a través del subsector formal no-transable, lo que disminuye el PIB informal. En consecuencia, el consumo neto de los miembros informales disminuye, lo que incentiva a que algunos miembros del hogar no se empleen en el sector informal y prefieran quedarse desempleados. Por lo tanto, el resultado final sobre el mercado laboral es una disminución de los trabajadores informales, de los cuales una parte se encuentra en el sector formal, y la parte restante está en condición de desempleo.
Resumo:
Se investiga la enseñanza de las matemáticas en bachillerato. Se aplican nociones teóricas del enfoque ontosemiótico del conocimiento y la instrucción matemática. Se enseña a los alumnos el concepto de límite funcional. El marco teórico elegido modeliza el proceso de enseñanza como un proceso estocástico multidimensional. Dicho proceso está compuesto de seis subprocesos: epistémico, docente, discente, mediacional, cognitivo y emocional. Se centra en la dimensión epistémica mostrando algunos conflictos semióticos y limitaciones en el significado institucional implementado.
Resumo:
Se persigue crear leyes matemáticas que describan la evolución de la variable: número de alumnos que acuden a la universidad. Conocer de qué manera se puede controlar la cantidad de sujetos que se situan dentro del Sistema Educativo universitario y, una vez encontradas estas leyes, comprobar empíricamente su validez. Alumnos matriculados desde 1966-67 al 1974-75 y abandono desde 1969-70 al 1974-75 de las Facultades de Ciencias, Filosofía y Letras y Medicina de la Universidad de Granada; Facultades de Filosofía y Letras, Medicina, Derecho y Ciencias de la Universidad de Sevilla y Derecho, Filosofía y Letras y Ciencias de la Universidad de Murcia. El trabajo consta de dos partes, en la primera se trata de buscar funciones matemáticas que describan la evolución del alumnado basándose en los factores entrada en el sistema, estancia en él y abandono. Para estudiar el mecanismo de entrada se conocen el número de alumnos que se incorporan en la universidad en cada tiempo 't' y la distribución de dichas llegadas en los diferentes niveles, para cada 't'. El mecanismo de estancia queda determinado por el conocimiento de los cambios que se producen a lo largo del tiempo. El individuo tendrá 3 alternativas: permanecer en el mismo nivel, pasar al superior o abandonar. La distribución de las entradas se considerará como un proceso que puede ser estacionario y la variable aleatoria que cuantifique este proceso será un vector aleatorio con tantos componentes como niveles constituyen el sistema. El posterior análisis empírico que se realiza en la segunda parte recoge y utiliza las fórmulas halladas. La teoría desarrollada nos permite crear un control de entrada de sujetos en diversos niveles; de estancia en esos niveles y el estudio del abandono total del sistema. En el estudio empírico se ha aplicado la teoría desarrollada a las diversas facultades, objeto de análisis, planteando el sistema de ecuaciones en las incógnitas, número de transiciones entre cursos en los distintos años y que se deduce de que un individuo sólo tiene las tres alternativas apuntadas: entrada, estancia y abandono. En todo el análisis se han tenido en cuenta a la hora de estimar las matrices de transición su estacionamiento, siguiendo los trabajos de Bartlett, Hoel y Anderson y Godman. Es un modelo estocástico basado en estudios hechos por diversos autores y referidos a los más diversos temas, como movilidad laboral (Silcock), duración de una huelga (Lancaster). Los autores hacen mención de la importancia que hay que dar al hecho de que se esté trabajando con sujetos humanos a la hora de establecer un control de entradas en la universidad y que, por ejemplo, una política de promoción fijada de antemano puede dar lugar a consecuencias poco deseables para la estructura de la organización educativa. Los controles que apuntan como deseables, serían el control de pérdidas del sistema, control de promociones y control de entradas, en dos vertientes, tamaño y magnitud de las entradas y otro, localización de dichas entradas. No obstante hay que decir que estas variables están ligadas entre sí y cualquier cambio en una afectará a las demás.
Resumo:
Los métodos utilizados para analizar opciones de inversión generalmente involucran consideraciones de flujo de caja tales como calcular la tasa de retorno o el valor actual neto. El Análisis de Decisiones añade una nueva dimensión al considerar cuantitativamente el riesgo e incertidumbre y como estos factores pueden ser utilizados para formular estrategias de inversión. La pieza fundamental del Análisis de Decisiones es el concepto de Valor Esperado, que es un método para combinar los estimados de rentabilidad con los estimados cuantitativos de riesgo a fin de obtener un criterio de decisión ajustado por riesgo. El Valor Esperado se obtiene ponderando los posibles resultados con la probabilidad de ocurrencia de cada uno de ellos. Para el caso en el cual los resultados son expresados como el VAN de los flujos de caja respectivos, el resultado es usualmente llamado Valor Actual Esperado (VAE) Para la evaluación de los proyectos se utilizan árboles de decisión o técnicas de simulación, donde éstas últimas se emplean cuando existen grandes incertidumbres y se desean obtener contornos de probabilidad del VAN. El criterio de aceptación establece que un proyecto puede llevarse a cabo si su VAE es positivo. Si se selecciona la alternativa que tiene el mayor VAE entre un conjunto de alternativas mutuamente excluyentes, el valor monetario esperado de todo el portafolio de decisiones será mayor que aquel que se obtendría seleccionando una estrategia alternativa
Resumo:
La partición hardware/software es una etapa clave dentro del proceso de co-diseño de los sistemas embebidos. En esta etapa se decide qué componentes serán implementados como co-procesadores de hardware y qué componentes serán implementados en un procesador de propósito general. La decisión es tomada a partir de la exploración del espacio de diseño, evaluando un conjunto de posibles soluciones para establecer cuál de estas es la que mejor balance logra entre todas las métricas de diseño. Para explorar el espacio de soluciones, la mayoría de las propuestas, utilizan algoritmos metaheurísticos; destacándose los Algoritmos Genéticos, Recocido Simulado. Esta decisión, en muchos casos, no es tomada a partir de análisis comparativos que involucren a varios algoritmos sobre un mismo problema. En este trabajo se presenta la aplicación de los algoritmos: Escalador de Colinas Estocástico y Escalador de Colinas Estocástico con Reinicio, para resolver el problema de la partición hardware/software. Para validar el empleo de estos algoritmos se presenta la aplicación de este algoritmo sobre un caso de estudio, en particular la partición hardware/software de un codificador JPEG. En todos los experimentos es posible apreciar que ambos algoritmos alcanzan soluciones comparables con las obtenidas por los algoritmos utilizados con más frecuencia.
Resumo:
En la industria del comercio minorista es práctica generalizada analizar los proyectos de entrada en nuevos mercados utilizando la metodología de descuento de flujos de caja (DFC). Esta metodología no considera la flexibilidad o cambios en el curso de acción una vez que los proyectos han comenzado. Por lo tanto, existe una infravaloración de los proyectos debido a la falta de consideración de las opciones de flexibilidad, ampliación, aprendizaje o abandono. Más aún, la metodología del DFC no puede reflejar las acciones de la competencia una vez que las compañías entran en el mercado. -Objetivos. Los principales objetivos de este trabajo son comprobar que existe una infravaloración en los proyectos de entrada en nuevos mercados en el sector del consumo minorista y proponer una metodología de valoración alternativa a través de la aplicación en dos ejemplos reales. -Metodología. La metodología aplicada en el presente trabajo está basada en el análisis de opciones reales y teoría de juegos. Primero, definiremos el tamaño del mercado en el momento inicial y aplicaremos la metodología de DFC para obtener el VAN del proyecto de entrar en un nuevo mercado (caso base). Segundo, necesitamos capturar la incertidumbre de la evolución del tamaño del mercado asumiendo que el mercado evoluciona exponencialmente de acuerdo con un movimiento geométrico Browniano que describe el proceso estocástico de un parámetro X(t)...
Resumo:
Este artigo discute um modelo de previsão combinada para a realização de prognósticos climáticos na escala sazonal. Nele, previsões pontuais de modelos estocásticos são agregadas para obter as melhores projeções no tempo. Utilizam-se modelos estocásticos autoregressivos integrados a médias móveis, de suavização exponencial e previsões por análise de correlações canônicas. O controle de qualidade das previsões é feito através da análise dos resíduos e da avaliação do percentual de redução da variância não-explicada da modelagem combinada em relação às previsões dos modelos individuais. Exemplos da aplicação desses conceitos em modelos desenvolvidos no Instituto Nacional de Meteorologia (INMET) mostram bons resultados e ilustram que as previsões do modelo combinado, superam na maior parte dos casos a de cada modelo componente, quando comparadas aos dados observados.
Resumo:
Consideramos de interés realizar un análisis financiero de la banca virtual en España para ser capaces de posicionar aquellas entidades bancarias que vieron en el canal de Internet una vía de expansión hacia nuevos clientes o como consolidación de los existentes, ya que todos los bancos creados en España de carácter virtual son filiales de grandes grupos bancarios. Utilizamos como modelos de análisis la aplicación de los métodos multicriterio CAMEL y Promethee. Como conclusiones del trabajo se observa que, independientemente del método utilizado, la entidad que mejor se posiciona para el periodo de análisis estudiado (2004-2010) es Bancopopular-e. No obstante, son entidades que todavía alcanzan valores muy bajas de rentabilidad y liquidez y donde datos como la eficiencia o la calidad de activos son muy mejorables.