1000 resultados para Títulos estruturados (Finanças)


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dados são disponibilizados através dos mais distintos meios e com os mais variados níveis de estruturação. Em um nível baixo de estruturação tem-se arquivos binários e no outro extremo tem-se bancos de dados com uma estrutura extremamente rígida. Entre estes dois extremos estão os dados semi-estruturados que possuem variados graus de estruturação com os quais não estão rigidamente comprometidos. Na categoria dos dados semiestruturados tem-se exemplos como o HTML, o XML e o SGML. O uso de informações contidas nas mais diversas fontes de dados que por sua vez possuem os mais diversos níveis de estruturação só será efetivo se esta informação puder ser manejada de uma forma integrada e através de algum tipo de esquema. O objetivo desta dissertação é fornecer um processo para construção de uma ontologia de domínio que haja como esquema representativo de diferentes conjuntos de informação. Estes conjuntos de informações podem variar de dados semi-estruturados a dados estruturados e devem referir-se a um mesmo domínio do conhecimento. Esta proposta permite que qualquer modelo que possa ser transformado no modelo comum de integração possa ser utilizado com entrada para o processo de integração. A ontologia de domínio resultante do processo de integração é um modelo semântico que representa o consenso obtido através da integração de diversas fontes de forma ascendente (bottom-up), binária, incremental, semi-automática e auto-documentável. Diz-se que o processo é ascendente porque integra o modelo que representa a fonte de interesse sobre a ontologia, é binário porque trabalha com dois esquemas a cada integração o que facilita o processo de documentação das integrações realizadas, é incremental porque cada novo esquema de interesse é integrado sobre a ontologia vigente naquele momento, é semiautomático porque considera a intervenção do usuário durante o processo e finalmente é autodocumentável porque durante o processo, toda integração de pares de conceitos semanticamente equivalentes é registrada. O fato de auto-documentar-se é a principal característica do processo proposto e seu principal diferencial com relação a outras propostas de integração. O processo de mapeamento utiliza, dos esquemas de entrada, toda a informação presente ou que possa ser inferida. Informações como se o conceito é léxico ou não, se é raiz e os símbolos que permitem deduzir cardinalidades são consideradas. No processo de integração são consideradas práticas consagradas de integração de esquemas de BDs, na identificação de relacionamentos entre objetos dos esquemas, para geração do esquema integrado e para resolução de conflitos. As principais contribuições desta dissertação são (i) a proposta de um metamodelo capaz de manter o resultado dos mapeamentos e das integrações realizadas e (ii) a especificação de um processo auto-documentável que de sustentação a auditoria do processo de integração.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This dissertation is review of the most important results from the recent field of New Dynamic Public Finance, built on the introduction of dynamic incentive problem in taxation environment. We also contrast these results with previous versions, based on different frameworks, such as Ramsey (linear taxes) dynamics and static incentive problems.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A maioria dos economistas prefere assumir que os indivíduos já estão tomando decisões corretas e cabe apenas uma descrição formal dessas escolhas. O presente trabalho é um exercício em economia normativa onde um novo enfoque de alocação de ativos para investidores de longo prazo é apresentado. Pretende-se, com este trabalho, replicar, para variáveis brasileiras, o artigo elaborado por John Y. Cambell, Yeung Lewis Chan e Luis M. Viceira. O artigo de referência, entitulado “A Multivariate Model of Strategic Asset Allocation” , mostra como evidências na previsibilidade dos retornos dos ativos podem afetar a escolha de uma alocação de ativos para investidores de longo prazo que valorizam a capacidade que sua riqueza tem de proporcionar um fluxo de consumo de longo prazo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apresentamos a distribuição hiperbólica corno alternativa à distribuição normal para a modelagem em finanças. A distribuição hiperbólica possui a vantagem de ter caudas pesadas e de permitir grande concentração das observações em torno da média. Estas características são verificadas empiricamente para os retornos dos ativos financeiros. Além de possuir um bom ajuste aos dados, o processo de Lévy hiperbólico apresenta caminhos puramente descontínuos. Corno os preços dos ativos seguem trajetórias descontínuas. esta característica consiste em mais urna vantagem desta distribuição. As descontinuidades nos levam a um modelo incompleto. )"lesmo assim, é possível definir urna fórmula para o apreçamento de opções. O bom ajuste aos dados da distribuição hiperbólica pode ser mais um indício de trabalharmos em mercados incompletos. Estimamos os parâmetros da hiperbólica para dados brasileiros. Com a fórmula de apreçamento e com os parâmetros estimados, determinamos os pre(;os para urna opção de Telebrás.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Evidências de incompatibilidades entre a dinâmica do mercado de ações e os conceitos descritos pelos modelos de racionalidade plena têm estimulado o desenvolvimento de estudos a cerca do comportamento dos agentes econômicos, como forma de entender algumas anomalias presentes no processo de formação de preço dos ativos, dando origem aos estudos na área de Finanças Comportamentais. Este trabalho refere-se ao estudo de estratégias baseadas em Finanças Comportamentais aplicadas ao mercado de ações brasileiro.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho aborda a Teoria dos leilões de Títulos Públicos, visando analisar os formatos discriminatório e uniforme. Tem-se como objetivo mostrar que, apesar de teoricamente não haver superioridade de um formato em relação ao outro, expectativas dos agentes podem motivar alterações no formato adotado. Para isso utilizou-se a experiência brasileira ocorrida em 2002 com os títulos pós-fixados, mais especificamente com a LFT.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho busca entender a importância dos veículos de securitização enquanto ferramenta de capitalização para empresas pequenas e médias, bem como elucidar como essa forma de capitalização afeta o desempenho e o valor da empresa, sob a ótica das teorias de Finanças Corporativas. Esta dissertação busca ainda mostrar que o uso desses veículos elevará o índice de capital de terceiros sobre capital próprio nas empresas brasileiras, e de qualquer outro país que venha a instituir o ferramental de securitização. Da mesma forma, pretende-se demonstrar que, com a instauração de tais instrumentos, ocorre uma ampliação na velocidade de crescimento de empresas eficientes e uma maior aproximação da Teoria I de Modigliani e Miller, a realidade. O presente trabalho resume os principais fatores que influenciam na determinação da relação entre capital próprio e de terceiros. Busca, também, compreender como esses tópicos se alteram na medida em que são instituídos veículos de securitização.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Foram examinadas as determinantes do nível de liquidez das firmas brasileiras, em um estudo de dados em painel com 295 firmas de capital aberto no período entre 1994 e 2004. Neste estudo, a liquidez foi definida como o estoque de caixa e títulos com liquidez dividido pelo total de ativos da firma. A análise empírica sugere que a liquidez das firmas brasileiras não é determinada por políticas específicas, sendo uma variável endógena, resultante das componentes do fluxo de caixa. Os principais resultados do modelo sugerem que o nível de liquidez é crescente em função do tamanho, do endividamento de curto prazo, e da lucratividade (tanto em termos de fluxo de caixa quanto lucro contábil), enquanto é decrescente em função do risco Brasil e do nível de capital de giro. A teoria do pecking order parece prevalecer nas decisões de financiamento das firmas. Alguns destes resultados, assim como a insignificância de outras variáveis testadas, contrariam as expectativas teóricas de como as firmas deveriam se comportar em relação ao nível de liquidez, com o objetivo de maximizar o valor da firma. O excedente de caixa ocorre nas grandes firmas com alta geração de caixa, e estas firmas podem estar incorrendo elevados custos de agência/expropriação, com prejuízo principalmente para os acionistas minoritários.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tese de doutorado está composta por quatro ensaios em macroeconometria e finanças com aplicações nas áreas de abertura comercial, custo de bem estar do ciclo de negócios e taxas de juros. No primeiro ensaio analisamos o comportamento da indústria de transformação após as reformas implantadas na década de noventa. Verificamos se o processo de abertura gerou aumentos da produtividade média da indústria de transformação. Adicionalmente, estimamos o mark-up de diferentes setores industriais e testamos se este se modifica após a abertura comercial. Os resultados das estimações indicam a existência de um significativo aumento na produtividade industrial na maior parte dos setores estudados. O canal para este aumento de produtividade, aparentemente, não é o aumento da concorrência, já que não há evidência estatística de redução de mark-up. Este é talvez o resultado mais surpreendente do artigo, o fato de que o mark-up não se modificar significativamente após a abertura comercial. Os setores estimados como não concorrenciais antes da abertura continuaram a ser depois dela. Acesso a insumo importados e uso de novas tecnologias podem ser possíveis canais de aumento de produtividade. Este resultado está em desacordo com Moreira (1999) que constrói diretamente dos dados medidas de mark-up. No segundo ensaio testamos a Hipótese das Expectativas Racionais (HER) para a estrutura a termo brasileira. Examinamos várias combinações de prazos entre 1 dia e 1 ano, seguindo a metodologia adotada pelo Banco Central do Brasil, para o período de Julho de 1996 a Dezembro de 2001. Mostramos que: (i) os coeficientes estimados dos diferenciais de rendimento entre as taxas longa e curta (yield spreads) nas equações de mudança de curto prazo da taxa longa e nas equações de mudança de longo prazo da taxa curta são imprecisos e incapazes de rejeitarem a HER; e (ii) diferenciais de rendimento altamente correlacionados com as previsões de expectativas racionais das futuras mudanças das taxas curtas, mas significativamente mais voláteis que estas últimas, sugerem a rejeição da HER. A hipótese alternativa de reação exagerada (overreaction) do diferencial de rendimento em relação à expectativa das futuras variações da taxa curta parece uma explicação razoável para as evidências, com implicações para a política monetária e para a gestão de investimentos. No terceiro ensaio estudamos o custo de bem-estar dos ciclos de negócios. Robert Lucas (1987) mostrou um resultado surpreendente para a literatura de ciclos de negócios, o custo de bem-estar, por ele calculado, é muito pequeno (US$ 8,50 por ano). Modelamos as preferências por funções com elasticidade de substituição constante e uma forma reduzida para o consumo razoável. Construímos dados seculares para a economia americana e computamos o custo de bem-estar para dois períodos distintos, pré e pós-segunda guerra mundial, usando três formas alternativas de decomposição tendência-ciclo, com foco na decomposição de Beveridge-Nelson. O período pós-guerra foi calmo, com um custo de bem-estar que raramente ultrapassa 1% do consumo per-capita (US$ 200,00 por ano). Para o período pré-guerra há uma alteração drástica nos resultados, se utilizamos a decomposição de Beveridge-Nelson encontramos uma compensação de 5% do consumo per-capita (US$ 1.000,00 por ano) com parâmetros de preferências e desconto intertemporal razoáveis. Mesmo para métodos alternativos, como o modelo com tendência linear, encontramos um custo de bem estar de 2% do consumo per-capita (US$ 400,00 por ano). Deste estudo podemos concluir: (i) olhando para dados pós-guerra, o custo de bem-estar dos ciclos de negócios marginal é pequeno, o que depõe contra a intensificação de políticas anticíclicas, sendo que do ponto de vista do consumidor pré-segunda guerra este custo é considerável; e (ii) o custo de bem-estar dos ciclos de negócios caiu de 5% para 0.3% do consumo per-capita, do período pré para o período pós-guerra, se esta redução é resultado de políticas anticíclicas, estas políticas foram muito bem sucedidas. Por último, no quarto ensaio analisamos o comportamento da taxa de juros livre de risco - cupom cambial - na economia brasileira para o período de 20 de janeiro de 1999 a 30 de julho de 2003. Identificamos os componentes de curto e longo prazo de três medidas de taxa de retorno, as quais foram submetidas aos tratamentos econométricos propostos em Vahid e Engle (1993) e Proietti (1997). Os resultados sugerem a convergência das taxas de retorno para um equilíbrio de longo prazo. Identificamos a dominância do componente de longo prazo na determinação da trajetória do Prêmio do C-BOND e do componente de curto prazo no caso do Prêmio do Swap Cambial. Já para o Prêmio Descoberto de Juros não conseguimos identificar o domínio de qualquer componente. Associando o componente de longo prazo aos fundamentos da economia e os componentes de curto prazo a choques nominais, poderíamos dizer que, em termos relativos, o Prêmio do C-BOND estaria mais fortemente ligado aos fundamentos e o Prêmio do Swap Cambial a choques nominais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This thesis is composed of three essays referent to the subjects of macroeconometrics and Önance. In each essay, which corresponds to one chapter, the objective is to investigate and analyze advanced econometric techniques, applied to relevant macroeconomic questions, such as the capital mobility hypothesis and the sustainability of public debt. A Önance topic regarding portfolio risk management is also investigated, through an econometric technique used to evaluate Value-at-Risk models. The Örst chapter investigates an intertemporal optimization model to analyze the current account. Based on Campbell & Shillerís (1987) approach, a Wald test is conducted to analyze a set of restrictions imposed to a VAR used to forecast the current account. The estimation is based on three di§erent procedures: OLS, SUR and the two-way error decomposition of Fuller & Battese (1974), due to the presence of global shocks. A note on Granger causality is also provided, which is shown to be a necessary condition to perform the Wald test with serious implications to the validation of the model. An empirical exercise for the G-7 countries is presented, and the results substantially change with the di§erent estimation techniques. A small Monte Carlo simulation is also presented to investigate the size and power of the Wald test based on the considered estimators. The second chapter presents a study about Öscal sustainability based on a quantile autoregression (QAR) model. A novel methodology to separate periods of nonstationarity from stationary ones is proposed, which allows one to identify trajectories of public debt that are not compatible with Öscal sustainability. Moreover, such trajectories are used to construct a debt ceiling, that is, the largest value of public debt that does not jeopardize long-run Öscal sustainability. An out-of-sample forecast of such a ceiling is also constructed, and can be used by policy makers interested in keeping the public debt on a sustainable path. An empirical exercise by using Brazilian data is conducted to show the applicability of the methodology. In the third chapter, an alternative backtest to evaluate the performance of Value-at-Risk (VaR) models is proposed. The econometric methodology allows one to directly test the overall performance of a VaR model, as well as identify periods of an increased risk exposure, which seems to be a novelty in the literature. Quantile regressions provide an appropriate environment to investigate VaR models, since they can naturally be viewed as a conditional quantile function of a given return series. An empirical exercise is conducted for daily S&P500 series, and a Monte Carlo simulation is also presented, revealing that the proposed test might exhibit more power in comparison to other backtests.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Litterman e Scheinkman (1991) mostram que mesmo uma carteira de renda xa duration imunizada (neutra) pode sofrer grandes perdas e, portanto, propõem fazer hedge de carteiras utilizando a análise de componentes principais. O problema é que tal abordagem só é possível quando as taxas de juros são observáveis. Assim, quando as taxas de juros não são observáveis, como é o caso da maior parte dos mercados de dívida externa e interna de diversos países emergentes, o método não é diretamente aplicável. O presente trabalho propõe uma abordagem alternativa: hedge baseado nos fatores de um modelo paramétrico de estrutura a termo. A imunização feita utilizando esta abordagem não só se mostra simples e e ciente, mas também, equivalente ao procedimento de imunização proposto por Litterman e Scheinkman quando as taxas são observáveis. Exemplos do método para operações de hedge e alavancagem no mercado de títulos da dívida pública brasileira indexada a in ação são apresentados. O trabalho ainda discute como montar e apreçar carteiras que replicam fatores de risco, o que permite extrair alguma informação sobre a expectativa dos agentes acerca do comportamento futuro da curva de juros. Por m, faz uma comparação da expectativa de in ação futura implícita nos preços dos títulos públicos da dívida interna brasileira (LTN/NTN-F e NT

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem como objetivo construir estruturas a termo da taxa de juros de títulos públicos brasileiros através do uso de modelos estatísticos paramétricos. Estudou-se a capacidade de ajuste de modelos distintos do tipo “splines” e “exponenciais” através de testes de apreçamento de diferentes títulos públicos (prefixados, e indexados à inflação), sob métricas que incluem análises dentro e fora da amostra utilizada no processo de estimação dos modelos. Identificamos que os modelos baseados em funções exponenciais se sobressaem nos testes e parecem ser os mais adequados para construção destas curvas de juros de títulos públicos brasileiros. Vislumbramos os resultados deste estudo como um primeiro passo para a criação de uma importante ferramenta de auxílio à regulação dos mercados de títulos públicos brasileiros, pois a construção de curvas de juros adequadas possibilita uma marcação a mercado de cada título coerente com o preço dos demais, oferecendo melhora na capacidade de se estimar regiões de confiança para preços futuros destes títulos. Palavras-Chave: taxa de juros – estrutura a termo da taxa de juros – renda fixa – títulos públicos.