690 resultados para GARCH multivariado
Resumo:
Rapport de recherche
Resumo:
The GARCH and Stochastic Volatility paradigms are often brought into conflict as two competitive views of the appropriate conditional variance concept : conditional variance given past values of the same series or conditional variance given a larger past information (including possibly unobservable state variables). The main thesis of this paper is that, since in general the econometrician has no idea about something like a structural level of disaggregation, a well-written volatility model should be specified in such a way that one is always allowed to reduce the information set without invalidating the model. To this respect, the debate between observable past information (in the GARCH spirit) versus unobservable conditioning information (in the state-space spirit) is irrelevant. In this paper, we stress a square-root autoregressive stochastic volatility (SR-SARV) model which remains true to the GARCH paradigm of ARMA dynamics for squared innovations but weakens the GARCH structure in order to obtain required robustness properties with respect to various kinds of aggregation. It is shown that the lack of robustness of the usual GARCH setting is due to two very restrictive assumptions : perfect linear correlation between squared innovations and conditional variance on the one hand and linear relationship between the conditional variance of the future conditional variance and the squared conditional variance on the other hand. By relaxing these assumptions, thanks to a state-space setting, we obtain aggregation results without renouncing to the conditional variance concept (and related leverage effects), as it is the case for the recently suggested weak GARCH model which gets aggregation results by replacing conditional expectations by linear projections on symmetric past innovations. Moreover, unlike the weak GARCH literature, we are able to define multivariate models, including higher order dynamics and risk premiums (in the spirit of GARCH (p,p) and GARCH in mean) and to derive conditional moment restrictions well suited for statistical inference. Finally, we are able to characterize the exact relationships between our SR-SARV models (including higher order dynamics, leverage effect and in-mean effect), usual GARCH models and continuous time stochastic volatility models, so that previous results about aggregation of weak GARCH and continuous time GARCH modeling can be recovered in our framework.
Resumo:
We examine the relationship between the risk premium on the S&P 500 index return and its conditional variance. We use the SMEGARCH - Semiparametric-Mean EGARCH - model in which the conditional variance process is EGARCH while the conditional mean is an arbitrary function of the conditional variance. For monthly S&P 500 excess returns, the relationship between the two moments that we uncover is nonlinear and nonmonotonic. Moreover, we find considerable persistence in the conditional variance as well as a leverage effect, as documented by others. Moreover, the shape of these relationships seems to be relatively stable over time.
Resumo:
Le modèle GARCH à changement de régimes est le fondement de cette thèse. Ce modèle offre de riches dynamiques pour modéliser les données financières en combinant une structure GARCH avec des paramètres qui varient dans le temps. Cette flexibilité donne malheureusement lieu à un problème de path dependence, qui a empêché l'estimation du modèle par le maximum de vraisemblance depuis son introduction, il y a déjà près de 20 ans. La première moitié de cette thèse procure une solution à ce problème en développant deux méthodologies permettant de calculer l'estimateur du maximum de vraisemblance du modèle GARCH à changement de régimes. La première technique d'estimation proposée est basée sur l'algorithme Monte Carlo EM et sur l'échantillonnage préférentiel, tandis que la deuxième consiste en la généralisation des approximations du modèle introduites dans les deux dernières décennies, connues sous le nom de collapsing procedures. Cette généralisation permet d'établir un lien méthodologique entre ces approximations et le filtre particulaire. La découverte de cette relation est importante, car elle permet de justifier la validité de l'approche dite par collapsing pour estimer le modèle GARCH à changement de régimes. La deuxième moitié de cette thèse tire sa motivation de la crise financière de la fin des années 2000 pendant laquelle une mauvaise évaluation des risques au sein de plusieurs compagnies financières a entraîné de nombreux échecs institutionnels. À l'aide d'un large éventail de 78 modèles économétriques, dont plusieurs généralisations du modèle GARCH à changement de régimes, il est démontré que le risque de modèle joue un rôle très important dans l'évaluation et la gestion du risque d'investissement à long terme dans le cadre des fonds distincts. Bien que la littérature financière a dévoué beaucoup de recherche pour faire progresser les modèles économétriques dans le but d'améliorer la tarification et la couverture des produits financiers, les approches permettant de mesurer l'efficacité d'une stratégie de couverture dynamique ont peu évolué. Cette thèse offre une contribution méthodologique dans ce domaine en proposant un cadre statistique, basé sur la régression, permettant de mieux mesurer cette efficacité.
Resumo:
We propose a novel, simple, efficient and distribution-free re-sampling technique for developing prediction intervals for returns and volatilities following ARCH/GARCH models. In particular, our key idea is to employ a Box–Jenkins linear representation of an ARCH/GARCH equation and then to adapt a sieve bootstrap procedure to the nonlinear GARCH framework. Our simulation studies indicate that the new re-sampling method provides sharp and well calibrated prediction intervals for both returns and volatilities while reducing computational costs by up to 100 times, compared to other available re-sampling techniques for ARCH/GARCH models. The proposed procedure is illustrated by an application to Yen/U.S. dollar daily exchange rate data.
Resumo:
Examina las relaciones entre las estrategias-estilos de aprendizaje con el rendimiento académico, curso y especialidad estudiadas, analizando además las comunalidades entre los diversos instrumentos de medida de estilos y estrategias. 991 estudiantes universitarios de primer y último curso de diez especialidades de la Universidad de Granada: Física, Química, Arquitectura Técnica, Medicina, Psicología, Derecho, Profesorado de EGB, Filología, Historia y Traductores e Intérpretes. La mayor parte de las contestaciones son in situ, en algunos casos en casa entregando las respuestas al día siguiente. Explicada la finalidad del estudio la participación de los alumnos es voluntaria. Se recoge la calificación media de cada alumno para el curso 88-89 (convocatoria de junio y septiembre). Estas notas sirven para dicotomizar a los estudiantes considerando la mediana como criterio de corte, calculándola por especialidad y curso. Cuatro inventarios de estrategias y estilos de aprendizaje, traducidos y adaptados al contexto Universitario Español. También rellenan una hoja de identificación personal. ILP. Inventory of Learning Processes de Schmeck ET-AL, (1877). ASI. Approaches to Study Inventory de Entwistle y Ramsden (1983). LASSI. Learning and Study Strategies Inventory de Weinstein ET-AL, (1984). LSI. Learning Styles Inventory de Kolb en adaptación de Marsall y Menit (1986). Análisis multivariado de varianza. Análisis discriminante. Análisis factorial. El rendimiento es de diferente calidad en función de las estrategias-estilos de aprendizaje e independiente de curso y especialidad estudiadas. Se pueden singularizar pautas de estilos y estrategias de aprendizaje diferentes según el curso, aunque con ciertas precisiones. Hay diferencias significativas entre los distintos tipos de estudios en cuanto a las estrategias y estilos de aprendizaje. Este resultado interactúa con el factor curso. Respecto al examen de comunalidades entre las escalas propuestas en los distintos tests y líneas de investigación: hay ocho componentes que explican prácticamente el 62 por ciento de la varianza total poniendo de manifiesto la diversidad de planteamientos teóricos en que se fundamentan los tests. Por el método de factores se detectan cuatro factores que explican casi el 40 por ciento de la varianza total. La investigación en este tema resulta compleja, dado el estado rudimental en el que se encuentra. El autor propone métodos de análisis más finos, así como la consideración de otros factores para enriquecer el estudio.
Resumo:
En este trabajo se estudia el comportamiento de los retornos de los tres principales ´ındices burs´atiles de Colombia: el IBB de la Bolsa de Bogot´a, el IBOMED de la Bolsa de Medell´ın, y el IGBC de Bolsa de Valores de Colombia. A trav´es de un modelo STAR GARCH se identifican dos estados o reg´ımenes extremos, mientras en el primero los rendimientos de los ´ındices son, en t´erminos absolutos, bajos y los procesos son estacionarios, en el segundo se tienen grandes p´erdidas o ganancias, donde los efectos de los choques son permanentes. Aunque en cada uno de los reg´ımenes el efecto del d´ıa de la semana es diferente, los resultados indican que para los tres ´ındices existe un efecto del d´ıa de la semana en la media, y un efecto del d´ıa en la varianza para la Bolsa de Bogot´a y Bolsa de Valores de Colombia. Los resultados contradicen la hip´otesis de un mercado de acciones eficiente en información
Resumo:
1. Realizar un estudio exhaustivo del Análisis Discriminante para evaluar su robustez con el fin de hacer las pertinentes recomendaciones al psicólogo aplicado; 2. Determinar criterios estadísticos que ayuden a las interpretaciones heurísticas de los coeficientes más relevantes, para la evaluación de las contribuciones de las variables a las funciones discriminantes. Primera investigación: Se trabajó con un diseño factorial 4x2x3x2x2 lo que supone 96 condiciones experimentales. Las cinco variables eran: a. Normalidad de las variables, b. Varianza de los grupos, c. Número de variables, d. Número de grupos, 5. Número de sujetos en cada grupo. Variable Dependiente: Para cada una de las 200 replicaciones Monte Carlo se obtuvieron las lambdas de Wilks, las V de Bartlett y su probabilidad asociada, como índice de la significación de criterio discriminante. Segunda investigación: Para esta investigación se replicó el diseño de la primera investigación, es decir, las 96 condiciones experimentales con todos los factores, otorgando ahora el perfil de diferencias grupales siguiente para las condiciones con tres grupos y para las condiciones con seis grupos. Se mantuvieron constantes las correlaciones entre las variables e iguales a las de la primera investigación, 0,70. El valor de los parámetros fue obtenido mediante el programa DISCRIMINANT del SPSS/PC+. Hardware: El trabajo de simulación se llevó a cabo con ocho ordenadores personales clónicos PC:PENTIUM/100 Mhz., con 16 MB de RAM. Software: Los procedimientos necesarios para la investigación fueron realizados en el lenguaje de programación GAUSS 386i, versión 3.1 (Aptech Systems, 1994). 1. Los métodos de simulación y concretamente, el método de muestreo bootstrap, son de gran utilidad para los estudios de robustez de las técnicas estadísticas, así como en los de inferencia estadística: cálculo de intervalos de confianza; 2. El Análisis Discriminante es una técnica robusta, siempre y cuando se cumpla la condición de homogeneidad de las varianzas; 3. El Análisis Discriminante no es robusto ante problemas de heterogeneidad en las siguientes condiciones: Con seis o menos variables,cuando los tamaños grupales son diferentes. Para tamaños iguales, si además se presenta una alteración conjunta de asimetría y apuntamiento; 4. Cuando la violación del supuesto de homogeneidad viene provocada porque la varianza mayor la presenta el grupo con menos sujetos la técnica se vuelve demasiado liberal, es decir, se produce un alto grado de error tipo I; 5. Los coeficientes de estructura son más estables e insesgados que los típicos; 6. Es posible determinar los intervalos confidenciales de los coeficientes de estructura mediante el procedimiento sugerido por Dalgleish (1994). 1. El Análisis Discriminante se puede utilizar siempre que se cumpla la condición de Homogeneidad de varianzas. Es por tanto, absolutamente necesario comprobar antes de realizar un Análisis Discriminante este principio, lo cual se puede llevar a cabo a través de cualquiera de los estadísticos pertinentes y, en especial, la prueba de Box; 2. Ante la heterogeneidad de varianzas si el número de variables independientes es seis o inferior, deberá tenerse en cuenta que el número de sujetos debe ser igual en todos los grupos y que las variables no presenten alteraciones conjuntas de asimetría y apuntamiento,por lo que, como paso previo deberá comprobarse la distribución de las variables y detectar si se presenta esta alteración. En cualquier otra condición, y ante la presencia de heterogeneidad de varianzas no se puede utilizar la técnica. Cuando el número de variables predictoras sea nueve o más, podrá utilizarse la técnica siempre, a excepción de diferentes tamaños grupales y no normalidad de las variables. El investigador aplicado deberá conocer la posibilidad que proponemos de apoyatura estadística para la toma de decisiones.
Resumo:
Un conjunto de modelos GARCH multivariados son estimados y su validez empírica comparada a partir del cálculo de la medida VaR, para los retornos diarios de la tasa de cambio nominal del peso colombiano con respecto al dólar americano, euro, libra esterlina y yen japonés en el periodo 1999–2005. La comparación de las estimaciones para la matriz de covarianza condicional y los resultados obtenidos para la proporción de fallo y el contraste de cuantil dinámico de Engle y Manganelli (2004) presentan evidencia a favor del modelo de correlación condicional constante.
Resumo:
En este trabajo se estudia el comportamiento de los retornos de los tres principales índices bursátiles de Colombia: el IBB de la Bolsa de Bogotá, el IBOMED de la Bolsa de Medellin, y el IGBC de Bolsa de Valores de Colombia. A través de un modelo STAR GARCH se identifican dos estados o regiones extremos; mientras en el primero los rendimientos de los índices son, en términos absolutos, bajos y los procesos son estacionarios, en el segundo se tienen grandes pérdidas o ganancias, donde los efectos de los choques son permanentes. Aunque en cada uno de los regímenes el efecto del día de la semana es diferente, los resultados indican que para los tres índices existe un efecto del día de la semana en la media, y un efecto del día en la varianza para la Bolsa de Bogotá y Bolsa de Valores de Colombia. Los resultados contradicen la hipótesis de un mercado de acciones efciente en información.
Resumo:
Resumen literal de la revista. Esta investigación ha sido realizada con una financiación del Centro de Investigación y Documentación educativa. El texto de este artículo fue publicado originalmente en estudios de psicología, 1991,46,35-52
Resumo:
Resumen del autor. Resumen en castellano e inglés. Este artículo se incluye en el monográfico 'Educación social'
Resumo:
Analizar el estado actual de las infraestructuras de conexión a Internet en los centros educativos de la Comunidad Valenciana. Determinar los niveles de uso y de conocimiento de Internet por parte de profesores y alumnos. Valorar las actitudes de los profesores y de los alumnos con respecto al uso de Internet en la escuela. Analizar hasta qué punto se percibe que el uso de Internet mejora la calidad de la educación. Concretar las alternativas que proponen profesores y alumnos para optimizar el uso de Internet en la escuela. Se acotó como población del estudio la escolar de ESO de la Comunidad Valenciana. Para la parte cuantitativa se eligió una muestra representativa a tres niveles: comunidad, provincia y comarca. Para ello se realizó un muestreo aleatorio estratificado, con los estratos definidos por la provincia, el tipo de centro, comarca y curso. La muestra quedó constituída por 2.311 alumnos y 492 profesores, 75 coordinadores, 84 directores, 87 centros. Para la parte cualitativa del estudio se seleccionó un grupo de 17 centros a partir de un análisis detallado de la página web de sus centros. Consta de una parte cuantitativa llevada a cabo a través de cuestionarios, que se encuadra dentro del método descriptivo-exploratorio, y una parte cualitativa que implica el estudio de casos, que se enmarca dentro de los diseños de tipo hermeneútico-interpretativo. El trabajo se organizó en tres fases: preparación y diseño de los instrumentos; aplicación de cuestionarios y recogida de información, incluyendo trabajo de campo; proceso de datos, evaluación de resultados y elaboración del informe final. Cuestionario de escala tipo Likert. La mayoría de los centros dispone de conexión a Internet, lo que situa a la Comunidad Valenciana en torno a la media europea y a la media nacional. Más de la mitad de los profesores no se conecta nunca a Internet en el centro y el uso más habitual es para obtener información, seguido del correo electrónico, el uso curricular es mínimo. Los alumnos utilizan poco Internet en el centro, siendo muy reducido su uso en las asignaturas, predominando la obtención de información, correo electrónico y chats. Los niveles de utilización de Internet son claramente superiores fuera el centro, lo que indica las deficiencias estructurales y de integración básica de las TIC (tecnologías de la información y comunicación) que aún existen en los centros de ESO. Son pocos los profesores que disponen de conocimientos avanzados de Internet, con la excepción de los coordinadores. La mayoría de los alumnos tienen un nivel medio. La actitud del profesorado ante el uso de Internet en la escuela es positiva, y la del alumnado muy positiva. Tanto profesores como alumnos consideran que Internet mejora la calidad de la educación. Las mejoras que profesores y alumnos sugieren para optimizar el uso de Internet son prioritariamente de dotación de medios, recursos y formación. El estado de la cuestión en los centros de ESO de la Comunidad Valenciana indica que el camino por recorrer es largo y los desafíos y esfuerzos de considerable magnitud. Es necesario un importante esfuerzo suplementario de dotación de medios e infraestructuras, de desarrollo de planes de formación de profesores y alumnos en el manejo de las NTIC (nuevas tecnologías de la información y comunicación) en el ámbito educativo, se debe potenciar el desarrollo de una red de soporte a los procesos de innovación e integración de las NTIC, es imprescindible actualizar y concretar los programas de actuación que se orienten a la potenciación de la integración en las NTIC, sería de gran interés establecer un procedimiento cuyo objetivo fundamental fuese la evaluación periódica de la situación, imprescindible en un mundo que se mueve a una enorme rapidez.