4 resultados para structure-function map
em Repositório digital da Fundação Getúlio Vargas - FGV
Resumo:
In the first chapter, we test some stochastic volatility models using options on the S&P 500 index. First, we demonstrate the presence of a short time-scale, on the order of days, and a long time-scale, on the order of months, in the S&P 500 volatility process using the empirical structure function, or variogram. This result is consistent with findings of previous studies. The main contribution of our paper is to estimate the two time-scales in the volatility process simultaneously by using nonlinear weighted least-squares technique. To test the statistical significance of the rates of mean-reversion, we bootstrap pairs of residuals using the circular block bootstrap of Politis and Romano (1992). We choose the block-length according to the automatic procedure of Politis and White (2004). After that, we calculate a first-order correction to the Black-Scholes prices using three different first-order corrections: (i) a fast time scale correction; (ii) a slow time scale correction; and (iii) a multiscale (fast and slow) correction. To test the ability of our model to price options, we simulate options prices using five different specifications for the rates or mean-reversion. We did not find any evidence that these asymptotic models perform better, in terms of RMSE, than the Black-Scholes model. In the second chapter, we use Brazilian data to compute monthly idiosyncratic moments (expected skewness, realized skewness, and realized volatility) for equity returns and assess whether they are informative for the cross-section of future stock returns. Since there is evidence that lagged skewness alone does not adequately forecast skewness, we estimate a cross-sectional model of expected skewness that uses additional predictive variables. Then, we sort stocks each month according to their idiosyncratic moments, forming quintile portfolios. We find a negative relationship between higher idiosyncratic moments and next-month stock returns. The trading strategy that sells stocks in the top quintile of expected skewness and buys stocks in the bottom quintile generates a significant monthly return of about 120 basis points. Our results are robust across sample periods, portfolio weightings, and to Fama and French (1993)’s risk adjustment factors. Finally, we identify a return reversal of stocks with high idiosyncratic skewness. Specifically, stocks with high idiosyncratic skewness have high contemporaneous returns. That tends to reverse, resulting in negative abnormal returns in the following month.
Resumo:
O Brasil é um país onde os 50% mais pobres se apropriam aproximadamente de 10% da renda agregada, e os 10% mais ricos detêm quase 50% deste mesmo. O colorário desse alto grau de desigualdade é que se uma pessoa está somente preocupada em maximizar o nível de GPD, a função de bem–estar social implícita adotada devota parte do seu peso ao bem-estar de 10% da população. Em outras palavras, a concentração brasileira de renda cria uma anomalia dentro da perspectiva de agente representativo implícito na análise macroeconômica aonde as pessoas valem aquilo que ganham. A análise da pobreza inverte esse peso estrutural da população, estipulando zero de peso para o segmento não pobre da sociedade e atribuindo pesos aos indivíduos que aumentam com suas necessidades insatisfeitas. Esse projeto estuda as conexões entre a evolução macroeconômica Brasileira recente e da pobreza. A análise é dividida em duas partes: A primeira parte descreve a evolução da pobreza brasileira e seus principais determinantes macroeconômicos durante os últimos 15 anos. A segunda parte tira proveito das mudanças da pobreza e desigualdades medidas durante o período 1993-96 para estudar seus principais determinantes macroeconômicos. Dado a maior importância do Plano Real, uma especial atenção foi dada a análise dos impactos da desinflação no nível e na distribuição de renda e a possível sinergia entre essas duas dimensões de determinação da pobreza. A terceira parte do projeto decompõe as mudanças dos diversos índices de pobreza através dos diferentes grupos dado pelas características dos chefes de família (i.e.; sexo, anos de estudo, raça, classe trabalhadora, setores de atividades, região, densidade populacional). Depois essa decomposição é avançada um passo desatrelando as mudanças nessa diferentes células de pobreza em termos de suas respectivas mudanças em termos de desigualdade da renda per capita. Esse perfil de pobreza ajuda a mapear as diferentes fontes de mudança da pobreza na análise histórica e fornece consistência interna para os exercícios de análises contra-factuais.
Resumo:
Este trabalho tem por finalidade analisar as características teóricas e metodológicas das monografias defendidas no curso de turismo da Universidade Federal do Maranhão – UFMA, que tratam de assuntos voltados para a temática em Gestão de Negócios turísticos no período de 2001/2005. Trabalham-se as principais definições e conceitos relacionados à pesquisa, mostrando ser a pesquisa um ato não isolado, processual e sistematizado. Apresenta a importância e as funções da pesquisa afirmando que a mesma vem conquistando um certo espaço na vida acadêmica por melhorar as práticas educativas bem como contribuindo para melhoria de vida dos cidadãos, quando unida à tecnologia, além de apresentar a importância dos métodos de investigação nos vários níveis e fases. Aborda sobre a pesquisa nas diversas concepções na universidade de forma contextualizada. Aborda sobre a função social da pesquisa estimulando a divulgação científica, vinculando esta responsabilidade como débito social do pesquisador para com a comunidade científica. A pesquisa configura-se como um método descritivo - exploratório analisado segundo três matrizes: paradigmática, tipológica e o mapa conceitual que serviram como critério orientador, onde as monografias foram metodicamente analisadas em sua estrutura no nível teórico, apresentando as principais temáticas trabalhadas, as críticas e as propostas, bem como os autores mais citados e os tipos de documento mais pesquisados. No nível técnico são analisados a característica das pesquisas, as técnicas, instrumentos e procedimentos utilizados na coleta e analise dos dados. No nível epistemológico foram observados os critérios de validação, as concepções de causalidade e de ciência, e os pressupostos lógico – gnosiológicos. Os dados obtidos, analisados a luz do referencial teórico apontam para necessidade de um maior rigor científico e espírito crítico por parte dos pesquisadores.
Resumo:
Cognition is a core subject to understand how humans think and behave. In that sense, it is clear that Cognition is a great ally to Management, as the later deals with people and is very interested in how they behave, think, and make decisions. However, even though Cognition shows great promise as a field, there are still many topics to be explored and learned in this fairly new area. Kemp & Tenembaum (2008) tried to a model graph-structure problem in which, given a dataset, the best underlying structure and form would emerge from said dataset by using bayesian probabilistic inferences. This work is very interesting because it addresses a key cognition problem: learning. According to the authors, analogous insights and discoveries, understanding the relationships of elements and how they are organized, play a very important part in cognitive development. That is, this are very basic phenomena that allow learning. Human beings minds do not function as computer that uses bayesian probabilistic inferences. People seem to think differently. Thus, we present a cognitively inspired method, KittyCat, based on FARG computer models (like Copycat and Numbo), to solve the proposed problem of discovery the underlying structural-form of a dataset.