942 resultados para equilibrium asset pricing models with latent variables
Resumo:
Our main goal is to investigate the question of which interest-rate options valuation models are better suited to support the management of interest-rate risk. We use the German market to test seven spot-rate and forward-rate models with one and two factors for interest-rate warrants for the period from 1990 to 1993. We identify a one-factor forward-rate model and two spot-rate models with two faetors that are not significant1y outperformed by any of the other four models. Further rankings are possible if additional cri teria are applied.
Resumo:
The inability of rational expectation models with money supply rules to deliver inflation persistence following a transitory deviation of money growth from trend is due to the rapid adjustment of the price level to expected events. The observation of persistent inflation in macroeconomic data leads many economists to believe that prices adjust sluggishly and/or expectations must not be rational. Inflation persistence in U.S. data can be characterized by a vector autocorrelation function relating inflation and deviations of output from trend. In the vector autocorrelation function both inflation and output are highly persistent and there are significant positive dynamic cross-correlations relating inflation and output. This paper shows that a flexible-price general equilibrium business cycle model with money and a central bank using a Taylor rule can account for these patterns. There are no sticky prices and no liquidity effects. Agents decisions in a period are taken only after all shocks are observed. The monetary policy rule transforms output persistence into inflation persistence and creates positive cross-correlations between inflation and output.
Resumo:
This paper investigates heterogeneity in the market assessment of public macro- economic announcements by exploring (jointly) two main mechanisms through which macroeconomic news might enter stock prices: instantaneous fundamental news im- pacts consistent with the asset pricing view of symmetric information, and permanent order ow e¤ects consistent with a microstructure view of asymmetric information related to heterogeneous interpretation of public news. Theoretical motivation and empirical evidence for the operation of both mechanisms are presented. Signi cant in- stantaneous news impacts are detected for news related to real activity (including em- ployment), investment, in ation, and monetary policy; however, signi cant order ow e¤ects are also observed on employment announcement days. A multi-market analysis suggests that these asymmetric information e¤ects come from uncertainty about long term interest rates due to heterogeneous assessments of future Fed responses to em- ployment shocks.
Resumo:
This paper analyses the welfare consequences of temporary exchange rate-based stabilization programs. Differently than previous papers, however, here we assume that only a fraction of households participates in asset market transactions. With this asset market segmentation assumption, the effects of temporary programs on welfare may change drastically. Households with access to the bonds market are able to protect themselves better from the changes in the inflation rate – although at the cost of a distortion in their consumption path. As a consequence, they may decrease their inflation tax burden – which would increase for the other group of households. By the other side, when these agents that lack the access to the asset markets are credit constrained, they may welcome the program, since the government Is temporally reducing the inflation tax they have to pay. The temporary program could end up benefiting both groups, what could help to understand their popularity.
Resumo:
O mercado brasileiro de Telecomunicações e Tecnologia da Informação (TIC) tem importância significativa para o desenvolvimento do Brasil, haja vista a evolução do mercado de telefonia móvel, que cresceu 600% nos últimos dez anos. A indústria de telecomunicações, que representa 4,7 % do PIB brasileiro (TELEBRASIL, 2013), passou a ter uma nova dinâmica a partir da elaboração da Lei Geral de Telecomunicações em 1997 e, posteriormente, com a privatização do setor. Esta rápida transformação da cadeia de valor do setor foi também impulsionada pela evolução das tecnologias e de novas arquiteturas de redes. Ademais, a utilização de tecnologias digitais, como aplicativos/APPs e a própria internet, tornou a cadeia de telecomunicações mais complexa, possibilitando o surgimento de novos atores e o desenvolvimento de novos serviços, modelos de negócios e precificação (SCHAPIRO e VARIAN, 2003). Este estudo tem como objetivo analisar os direcionadores e barreiras na adoção de novos modelos de precificação de serviços no mercado brasileiro de telecomunicações, considerando a transformação e evolução do setor. O estudo foi elaborado por meio de uma estratégia de pesquisa qualitativo-exploratória e construtivista baseando-se na abordagem Multinível (POZZEBON e DINIZ, 2012), que trabalha o contexto, o processo e as interações entre os grupos sociais relevantes. A partir desta análise, foi possível compreender os critérios, direcionadores e barreiras no processo de adoção de novos modelos de precificação, as quais destacam-se as demandas dos usuários, a alta concorrência e a necessidade de aumento do retorno do investimento como os direcionadores mais relevantes, enquanto que a qualidade das redes, a falta de sistemas, a situação financeira das operadoras, a complexidade da regulamentação e o surgimento de grupos sociais distintos dentro da empresa são apontados como as barreiras mais críticas neste processo. Dentro deste contexto, os modelos de precificação emergentes abrangem o empacotamento de serviços, ofertas por tempo limitado, modelos de patrocínio/gratuidade, em conjunto com exploração de novas áreas de negócios. Este estudo proporciona uma contribuição prática e acadêmica na medida em que permite uma melhor compreensão do dinamismo do mercado e suporte para as áreas de marketing estratégico e tático das operadoras, bem como na formulação de políticas e regulamentação do setor.
Empresas de controle familiar e informed trading: evidências de short selling no mercado brasileiro?
Resumo:
O objetivo desse trabalho é testar se no mercado brasileiro, empresas familiares são mais suscetíveis a insider trading.Testes feitos no mercado americano evidenciaram efeito do controle familiar no conteúdo informacional embutido em montagem de posições vendidas de companhias abertas. Lá, foram encontrados níveis acima do normal de posições short em companhias de controle familiar principalmente em momentos que antecipavam resultados negativos que iriam ser publicados. Não encontramos evidências claras de que o fato da companhia ter controle familiar poderia levá-la a apresentar ou não insider trading, já que por limitação do modelo não é possível comparar o nível de anormal short para empresas de controle familiar e outras pois essa variável é excluída do modelo. Entretanto, observamos nos modelos em painel fixo com interações que existe diferença do efeito de algumas variáveis de controle para empresas de controle familiar ou não sobre outras variáveis de controle o que poderia mostrar que alguma influência o controle familiar poderia ter sobre o insider trading. Testamos também se empresas de controle estatal apresentavam maior volume médio diário anormal de posições vendidas em momentos que antecediam surpresas de resultado, e também não encontramos evidências claras e diretas que isso acontecia.
Resumo:
Este trabalho tem por objetivo a análise empírica dos fatores macroeconômicos que determinaram os níveis de spread bancário para pessoas físicas e pessoas jurídicas no Brasil no período pós-adoção do Plano Real até dezembro de 2012. Para isso foi utilizado um modelo de auto regressão vetorial com variáveis representativas de fatores macroeconômicos. O Trabalho expõe ainda algumas características da indústria bancária no Brasil e as particularidades do mercado de crédito praticado para pessoas físicas e pessoas jurídicas. Os resultados deste trabalho evidenciaram que: (i) a taxa básica de juros foi o principal fator macroeconômico de influência do spread praticado tanto para pessoas físicas quanto para pessoas jurídicas; (ii) Enquanto um impacto no nível de inflação ocasionou maior influência no spread para pessoas físicas, um impacto na volatilidade da taxa básica de juros influenciou positivamente o spread para pessoas jurídicas.
Resumo:
The dissertation goal is to quantify the tail risk premium embedded into hedge funds' returns. Tail risk is the probability of extreme large losses. Although it is a rare event, asset pricing theory suggests that investors demand compensation for holding assets sensitive to extreme market downturns. By de nition, such events have a small likelihood to be represented in the sample, what poses a challenge to estimate the e ects of tail risk by means of traditional approaches such as VaR. The results show that it is not su cient to account for the tail risk stemming from equities markets. Active portfolio management employed by hedge funds demand a speci c measure to estimate and control tail risk. Our proposed factor lls that void inasmuch it presents explanatory power both over the time series as well as the cross-section of funds' returns.
Resumo:
O objetivo deste trabalho é ajudar o investidor que optou por investir seus recursos no mercado imobiliário a tomar sua decisão de investimento com base nas características endógenas facilmente identificáveis no prospecto dos Fundos de Investimento Imobiliários (FIIs). Foram selecionadas aquelas consideradas importantes pela literatura e foram construídos alguns modelos para testar sua influência na rentabilidade. Inicialmente, foi construído um modelo completo, com todas as variáveis, que apresentou resultados pouco relevantes, já que a maioria das variáveis não apresentou significância. Em seguida, um modelo reduzido foi montado com as variáveis que mais contribuíam para a rentabilidade, obtendo-se resultados relevantes. Através desse modelo, observou-se que FIIs que investem em desenvolvimento imobiliário, com foco no mercado residencial e com baixas taxas de administração, geraram maiores rentabilidades ao investidor.
Resumo:
A mudança do perfil demográfico e epidemiológico das populações, com progressivo envelhecimento populacional e aumento de portadores de doenças crônicas não transmissíveis, somado a necessidade da ampliação da oferta de serviços de saúde e crescentes custos em saúde, impõe enormes desafios aos sistemas e serviços de saúde. A eficiência organizacional dos serviços de saúde tem papel importante tanto na racionalização dos custos quanto na melhoria da qualidade e segurança assistencial. Tendo papel central nos sistemas de saúde como centros difusores de conhecimento, capacitação profissional, incorporação de tecnologias, prestação de serviços de maior complexidade aos pacientes e, consequentemente, elevados custos destes serviços, aos hospitais é fundamental a busca por essa eficiência. Este estudo buscou analisar se existe trade-off entre eficiência e qualidade em organizações hospitalares e identificar quais determinantes poderiam estar associados com maiores ou menores escores de eficiência. Utilizou-se dois modelos de análise de envelopamento de dados (data envelopment analysis, DEA), sem e com variáveis de qualidade, com retornos variáveis de escala e orientados para resultado. Foram estudados 47 hospitais gerais públicos do estado de São Paulo. No modelo sem variáveis de qualidade 14 deles foram considerados eficientes, enquanto que 33 no modelo com estas variáveis. O coeficiente de correlação de Spearman entre os dois modelos foi de 0,470 (correlação moderada). Não há evidências de que haja trade-off entre eficiência e qualidade nestas organizações hospitalares. Hospitais eficientes no modelo sem variáveis de qualidade, também o foram com variáveis de qualidade, assim como houve hospitais ineficientes no modelo sem variáveis de qualidade que foram eficientes com estas variáveis. Não foram encontradas associações estatisticamente significantes (p<0,05) entre eficiência e as características dos hospitais estudados, como acreditação, modelos de gestão, porte hospitalar e atividades de ensino, apesar de alguns achados de maior ou menor escore de eficiência para alguns determinantes. Desta maneira, concluiu-se que a utilização de variáveis de qualidade é um fator fundamental na determinação da eficiência de organizações de saúde, e não podem estar dissociadas. Gestões eficientes também estão relacionadas à obtenção de melhores resultados assistenciais sem a necessidade que se tenha de optar em alcançar melhores resultados econômico-financeiros ou melhores resultados assistenciais.
Resumo:
Building design is an effective way to achieve HVAC energy consumption reduction. However, this potentiality is often neglected by architects due to the lack of references to support design decisions. This works intends to propose architectural design guidelines for energy efficiency and thermal performance of Campus/UFRN buildings. These guidelines are based on computer simulations results using the software DesignBuilder. The definition of simulation models has begun with envelope variables, partially done after a field study of thirteen buildings at UFRN/Campus. This field study indicated some basic envelope patterns that were applied in simulation models. Occupation variables were identified with temperature and energy consumption monitoring procedures and a verification of illumination and equipment power, both developed at the Campus/UFRN administration building. Three simulation models were proposed according to different design phases and decisions. The first model represents early design decisions, simulating the combination of different types of geometry with three levels of envelope thermal performance. The second model, still as a part of early design phase, analyses thermal changes between circulation halls lateral and central and office rooms, as well as the heat fluxes and monthly temperatures in each circulation hall. The third model analyses the influence of middle-design and detail design decisions on energy consumption and thermal performance. In this model, different solutions of roofs, shading devices, walls and external colors were simulated. The results of all simulation models suggest a high influence of thermal loads due to the incidence of solar radiation on windows and surfaces, which highlights the importance of window shading devices, office room orientation and absorptance of roof and walls surfaces
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
We propose a new paradigm for collective learning in multi-agent systems (MAS) as a solution to the problem in which several agents acting over the same environment must learn how to perform tasks, simultaneously, based on feedbacks given by each one of the other agents. We introduce the proposed paradigm in the form of a reinforcement learning algorithm, nominating it as reinforcement learning with influence values. While learning by rewards, each agent evaluates the relation between the current state and/or action executed at this state (actual believe) together with the reward obtained after all agents that are interacting perform their actions. The reward is a result of the interference of others. The agent considers the opinions of all its colleagues in order to attempt to change the values of its states and/or actions. The idea is that the system, as a whole, must reach an equilibrium, where all agents get satisfied with the obtained results. This means that the values of the state/actions pairs match the reward obtained by each agent. This dynamical way of setting the values for states and/or actions makes this new reinforcement learning paradigm the first to include, naturally, the fact that the presence of other agents in the environment turns it a dynamical model. As a direct result, we implicitly include the internal state, the actions and the rewards obtained by all the other agents in the internal state of each agent. This makes our proposal the first complete solution to the conceptual problem that rises when applying reinforcement learning in multi-agent systems, which is caused by the difference existent between the environment and agent models. With basis on the proposed model, we create the IVQ-learning algorithm that is exhaustive tested in repetitive games with two, three and four agents and in stochastic games that need cooperation and in games that need collaboration. This algorithm shows to be a good option for obtaining solutions that guarantee convergence to the Nash optimum equilibrium in cooperative problems. Experiments performed clear shows that the proposed paradigm is theoretical and experimentally superior to the traditional approaches. Yet, with the creation of this new paradigm the set of reinforcement learning applications in MAS grows up. That is, besides the possibility of applying the algorithm in traditional learning problems in MAS, as for example coordination of tasks in multi-robot systems, it is possible to apply reinforcement learning in problems that are essentially collaborative
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
O objetivo deste trabalho foi analizar a distribuição espacial da compactação do solo e a influência da umidade do solo na resistência à penetração. Esta última variável foi descrita pelo índice de cone. O solo estudado foi Nitossolo e os dados de índice de cone foram obtidos usando um penetrômetro. A resistência do solo foi avaliada a 5 profundidades diferentes, 0-10 cm, 10-20 cm, 20-30 cm, 30-40 cm e mais de 40 cm, porém o conteúdo de umidade do solo foi medido a 0-20 cm e 20-40 cm. As condições hídricas do solo variaram nas diferentes amostragems. Os coeficientes de variação para o índice de cone foram 16,5% a 45,8% e os do conteúdo de umidade do solo variaram entre 8,96% e 21,38%. Os resultados sugeriram elevada correlação entre a resistência do solo, estimada pelo índice de cone e a profundidade do solo. Sem embargo, a relação esperada com a umidade do solo não foi apreciada. Observou-se dependência espacial em 31 de 35 séries de dados de índice de cone e umidade do solo. Esta dependência foi ajustada por modelos exponenciais com efeito pepita variável de 0 a 90% o valor do patamar. em séries de dados o comportamento foi aleatório. Portanto, a técnica das distâncias inversas foi utilizada para cartografar a distribuição das variáveis que não tiveram estrutura espacial. Na krigagem constatou-se uma suavização dos mapas comparados com esses das distâncias inversas. A krigagem indicadora foi utilizada para cartografar a variabilidade espacial do índice de cone e recomendar melhor manejo do solo.