969 resultados para Variações linguísticas
Resumo:
Neste trabalho é desenvolvido um modelo integrado para alocação ótima de ativos em bancos comerciais que incorpora restrições incertas de liquidez, atualmente ignoradas por modelos de RAROC e EVA. Se por um lado o lucro econômico considera o custo de oportunidade de ativos com risco, o que pode inclusive incorporar um prêmio de liquidez, por outro é negligenciado o risco de falha devido à falta de fundos suficientes para enfrentar demandas inesperadas de caixa, oriundas de corridas, saques excepcionais de linhas de crédito, ou perdas de crédito, de mercado, ou operacionais, o que pode ocorrer conjuntamente com episódios de racionamento de crédito interbancário ou crises sistêmicas de liquidez. Dada uma restrição de liquidez que pode incorporar tais fatores, há uma probabilidade Pf de que haja uma falha e a restrição de liquidez não seja obedecida, resultando em perda de valor para o banco, representada pela perda estocástica por falha Lf. O lucro econômico total, dada a possibilidade de perda devido à falta de liquidez, é então dinamicamente otimizado, resultando em um esquema de alocação de curto prazo capaz de integrar riscos de mercado, de crédito e operacionais na gestão de liquidez em bancos comerciais. Embora uma abordagem geral via simulação seja sugerida, também é apresentada uma solução fechada, válida sob certos pressupostos simplificadores, cuja otimização é discutida detalhadamente. Uma análise de fatos estilizados é apresentada a seguir, havendo indícios de que a tendência corrente de redução das taxas de juros no Brasil tem influenciado a queda no nível de ativos líquidos como proporção dos depósitos, aumentando a relevância dos modelos de gestão de liquidez, como o aqui proposto. Também foi feita uma implementação do modelo com dados de bancos brasileiros da qual estimou-se um ganho de cerca de 8,5% ao ano no retorno sobre o patrimônio líquido em relação à otimização que não leva em conta as perdas por falta de liquidez. Embora não seja possível estabelecer a significância do resultado em virtude das aproximações utilizadas, observou-se que a sensibilidade deste ganho não é alta em relação a variações nos parâmetros, que modificados de 20%, para mais e para menos, produziram ganhos entre 6,3% e 8,8% ao ano. Os ganhos chegam a 11,1% se o volume de recursos líquidos disponíveis para alocação for aumentado em quatro vezes e mesmo se a perda dada uma falha for reduzida de 8,6 vezes ainda há ganhos anuais de cerca de 0,5% no retorno sobre o patrimônio líquido, dando indícios empíricos de que o modelo possa ter impacto relevante na criação de valor em bancos.
Resumo:
Esta dissertação trata, com base nos estudos de Estelami e De Maeyer (2004), de tema pouco abordado no âmbito acadêmico: o Conhecimento do Consumidor sobre Preços de bens duráveis (ESTELAMI e LEHMANN, 2001). Aqui, num primeiro momento, o exame em oito categorias de produtos revelou significantes variações no conhecimento do consumidor sobre preços. A análise também mostrou que apenas um terço dos consumidores forneceu estimativas de preço para os produtos com razoável precisão, confirmando as expectativas de que esse conhecimento é limitado (DICKSON e SAWEYR, 1990; ESTELAMI, 1998; KRISHNA, CURRIN e SHOEMAKER, 1991). Num segundo momento, a existência de uma relação entre o Conhecimento de Preço e seus potenciais determinantes Envolvimento com o Produto, Exposição à Propaganda e Uso da Relação Preço-Qualidade foi verificada. Os resultados apontam que, apesar de presente para alguns produtos, a relação entre o Conhecimento de Preço e os seus potenciais determinantes foi fraca.
Resumo:
Este trabalho estuda os determinantes de volume de ações negociadas na Bolsa de Valores do Estado de São Paulo, em especial os preços máximo e mínimo das últimas 52 semanas. O estabelecimento de uma relação entre estes preços limite e volume só pode ser explicado através das teorias da área de Finanças Comportamentais, que através do relaxamento de premissas como racionalidade do consumidor e mercados eficientes se propõem a uma maior adequação à realidade. Os teste realizados confirmam haver utilização do preço mínimo das últimas 52 semanas, por parte do investidor, como referência para a tomada de decisão, ocasionando um aumento, acima de mercado, do volume de negociação destas ações no momento em que o preço corrente extrapola o preço mínimo passado. Entretanto, esta mesma relação não foi identificada para o preço máximo das últimas 52 semanas. A identificação de mais esta variável para explicar variações no volume de negociações do mercado de capitais no Brasil contribui tanto para as recentes teorias de Finanças Comportamentais como para o próprio desenvolvimento do mercado financeiro e conseqüentemente do país, sendo, portanto, do interesse de todos.
Resumo:
Os altos índices de criminalidade em nosso país impõem aos governos e formuladores de políticas públicas inserirem em sua agenda a construção de políticas públicas eficazes na prevenção e combate ao crime. Diversos autores no campo da economia contribuíram e vêm contribuindo para o melhor entendimento dos determinantes da criminalidade. Esta abordagem tem sua gênese no seminal artigo de Gary Becker (1968) e entende como uma decisão racional do indivíduo, condicionada a fatores econômicos e dissuasivos, a decisão de cometer ou não um crime. Este trabalho propõe-se a trazer mais uma contribuição ao tema. Após uma breve revisão da literatura de economia do crime, são realizados dois estudos empíricos. O primeiro, utilizando dados mensais para os crimes de homicídio, furto, furto de veículos, roubo e roubo de veículos, procura verificar, a partir da utilização de séries temporais, o impacto de variáveis econômicas e dissuasivas nos cinco tipos de crime. Os resultados sugerem que as variações do número de prisões e da população carcerária podem contribuir para a redução do crime. Já o segundo estudo parte de uma experiência comum em cidades da América Latina e que foi adotada por diversos municípios da Região Metropolitana de São Paulo: a restrição da venda de bebidas alcoólicas em bares e restaurantes no período noturno em dias específicos, conhecida como ¿Lei Seca¿. A partir de abril de 2001, dezesseis das dezenove cidades da Região Metropolitana de São Paulo adotaram leis desta natureza. Utilizando um modelo de diferenças em diferenças, e tendo como grupo de controle as cidades que não adotaram a lei e as cidades que a adotaram nos períodos anteriores; e como grupo de tratamento as cidades que adotaram a lei nos períodos a partir de sua vigência, os resultados sugerem que a redução do acesso ao álcool contribui para a redução dos homicídios. Os resultados dos dois estudos contribuem para o campo de estudo das políticas públicas de segurança.
Resumo:
O primeiro capítulo desta tese tem por objetivo classificar as várias abordagens sobre produtividade, de tal sorte que se tenha uma idéia mais detalhada das metodologias que embasam as diferentes análises empíricas. O segundo capítulo trata de identificar, dentre as várias abordagens disponíveis, aquelas de uso mais freqüente na mensuração da produtividade agregada e comparar resultados, vantagens e desvantagens metodológicas, procurando evitar comparações inadequadas entre metodologias muito díspares. Uma conclusão a que se chega nesse ponto do trabalho é a de que os métodos que pressupõem eficiência técnica e alocativa não dão conta de esclarecer as razões econômicas por trás das diferenças de produtividade entre nações. Os métodos que relaxam a hipótese de eficiência, chamados de métodos de fronteiras de produção, têm o mérito de separar os efeitos do progresso técnico dos ganhos de eficiência técnica, estes últimos freqüentemente interpretados como difusão tecnológica e aprendizado – isto é, como um efeito de alcance. Em razão disso, parecem ser adequados para discutir várias das questões levantadas na literatura de crescimento econômico. No capítulo três, apresenta-se uma alternativa pouco explorada na literatura de crescimento econômico para mensuração da produtividade usando fronteiras estocásticas de produção. Essa abordagem permite uma posterior decomposição das variações da produtividade em partes que apresentam interpretação econômica intuitiva. O capítulo quatro usa as estimativas obtidas no capítulo anterior para efetuar a decomposição da taxa de crescimento da produtividade da forma mais detalhada que o estado das artes parece permitir. Isso é feito para um subconjunto de países da amostra (por questões de disponibilidade de dados) que ainda assim mantém um razoável grau de heterogeneidade. Os resultados permitem, então, que se avalie as contribuições da acumulação de fatores, da produtividade (como um todo) e de seus componentes no comportamento da taxa de crescimento do produto por trabalhador. O trabalho desenvolvido nos capítulos anteriores permite, por fim, que se trace algumas conclusões. De forma geral, a mais importante conclusão do trabalho é a de que a eficiência alocativa importa, e muito, para o estudo comparativo do desempenho econômico das nações. As diferenças de padrão de vida medido pelo produto por trabalhador entre grupos de países (desenvolvidos e em desenvolvimento) guardam grande relação com as diferenças de produtividade nesses países. O progresso técnico, juntamente com a eficiência técnica são os principais responsáveis pela variação dessa produtividade. Nos países em desenvolvimento o efeito da eficiência alocativa é ainda mais importante e contribui fortemente para redução da produtividade. A eficiência alocativa é ainda o componente da produtividade de maior peso na explicação das diferenças entre países ricos e pobres quanto à evolução do produto por trabalhador. Os resultados revelam ainda um efeito de alcance da fronteira (variações na eficiência técnica) que ocorre tanto para países em desenvolvimento quanto para os desenvolvidos.
Resumo:
O objetivo da tese é analisar questões relativas à coordenação entre as políticas monetária e fiscal no Brasil após a adoção do regime de metas de inflação. Utiliza-se de um modelo de metas de inflação para uma economia pequena e aberta para a incorporação um bloco de equações que descrevem a dinâmica das variáveis fiscais. Tendo por base os conceitos de Leeper (1991), ambas as entidades, Banco Central e Tesouro Nacional, podem agir de forma ativa ou passiva, e será este comportamento estratégico que determinará a eficiência da política monetária. Foram estimados os parâmetros que calibram o modelo e feitas as simulações para alguns dos choques que abalaram a economia brasileira nos últimos anos. Os resultados mostraram que nos arranjos em que a autoridade fiscal reage a aumentos de dívida pública com alterações no superávit primário, a trajetória de ajuste das variáveis frente a choques tende a ser, na maioria dos casos, menos volátil propiciando uma atuação mais eficiente do Banco Central. Nestes arranjos, o Banco Central não precisa tomar para si funções que são inerentes ao Tesouro. Também são analisadas as variações no comportamento do Banco Central e do Tesouro Nacional em função de diferentes composições da dívida pública. Os resultados mostram que a estrutura do endividamento público será benéfica, ou não, à condução das políticas monetária e fiscal, dependendo do tipo de choque enfrentado. O primeiro capítulo, introdutório, procura contextualizar o regime de metas de inflação brasileiro e descrever, sucintamente, a evolução da economia brasileira desde sua implantação. No segundo capítulo são analisados os fundamentos teóricos do regime de metas de inflação, sua origem e principais componentes; em seguida, são apresentados, as regras de política fiscal necessárias à estabilidade de preços e o problema da dominância fiscal no âmbito da economia brasileira. O terceiro capítulo apresenta a incorporação do bloco de equações fiscais no modelo de metas de inflação para economia aberta proposto por Svensson (2000), e as estimações e calibrações dos seus parâmetros para a economia brasileira. O quarto capítulo discute as diferentes formas de coordenação entre as autoridades monetária e fiscal e a atuação ótima do Banco Central. O quinto capítulo tem como base a mais eficiente forma de coordenação obtida no capítulo anterior para analisar as mudanças no comportamento da autoridade monetária e fiscal frente a diferentes estruturas de prazos e indexadores da dívida pública que afetam suas elasticidades, juros, inflação e câmbio.
Resumo:
O objetivo deste trabalho é investigar se a relação entre a taxa de câmbio spot e o fluxo de ordens deriva do fato do fluxo agregar informações a respeito dos fundamentos econômicos dispersos na economia. Para efetuar este teste foi utilizada uma base de dados que engloba todas as transações dos segmentos comercial e financeiro no mercado cambial primário brasileiro entre janeiro de 1999 e maio de 2008. Mostramos que o fluxo de ordens foi razoavelmente capaz de explicar variações nas expectativas de inflação, relação que não se manteve robusta para escolha de outros fundamentos, como PIB e Produção Industrial.
Resumo:
Esta dissertação tem dois objetivos: (i) propor um novo teste para verificar a existência de hysteresis em comércio exterior; (ii) aplicá-lo para o Brasil e analisar o comportamento recente do setor externo deste país à luz desta teoria. O teste sugerido envolve duas etapas. A primeira é a de delimitação da zona de inação ao longo do tempo, utilizando calibrações para o modelo de Dixit (1989, 1994) combinadas com uma aplicação de um modelo de Estado-Espaço de coeficientes variando no tempo para estimar o movimento browniano da taxa de câmbio real com parâmetros variáveis no tempo. Esta etapa nos permitirá identificar, de acordo com a teoria de hysteresis, quando a taxa de câmbio real ultrapassou os limiares da zona de inação. A segunda etapa consiste em utilizar estes resultados, juntamente com a metodologia de análise de cointegração com quebra estrutural proposto por Johansen et al. (2000), para testar a hipótese de que variações temporárias no câmbio, desde que sejam suficientemente grandes para ultrapassar os limiares da zona de inação, afetam permanentemente as exportações. Os resultados encontrados não apresentaram evidências fortes de hysteresis para o volume total das exportações brasileiras, mas sugeriram que há alguma evidência de hysteresis para o volume das exportações de produtos manufaturados.
Resumo:
Esta dissertação faz uma avaliação das expectativas de inflação dos analistas profissionais utilizadas pelo Banco Central na sua formulação de política monetária. Usando o procedimento proposto por Thomas Jr (1999) constatamos que as previsões, extraídas por meio de entrevistas juntos aos analistas financeiros, publicadas no Boletim Focus, são viesadas e inconsistentes, portanto incapazes de antecipar corretamente movimentos futuros da inflação. Alguns trabalhos, como Estrella e Mishkin (1997), Kozicki (1997) e Kotlan (1999) utilizaram com bons resultados a inclinação da estrutura a termo da taxa de juros (ETTJ) para prever variações da inflação. Adaptamos estes modelos para o Brasil e obtivemos resultados significantes nos horizontes de curto e médio prazos, mostrando que a inclinação da ETTJ pode contribuir para a política de metas de inflação do Banco Central. No entanto, como o Brasil ainda possui uma estrutura a termo muito curta a capacidade de previsão do modelo não vai além de 9 meses. Com a estabilização da economia, se espera que esta curva se alongue, tornando este instrumento de previsão cada vez mais poderoso.
Resumo:
A teoria de consumo indica que os indivíduos maximizam sua utilidade se suavizarem o consumo ao longo da vida. Manter o consumo constante seria melhor que se sujeitar à instabilidade. Entretanto a maior parte dos testes realizados com informações brasileiras contraria esta hipótese. Este trabalho apresenta resultados diferentes, com indícios de suavização do consumo em um período recente. Para a realização deste trabalho, foram utilizados dados nacionais extraídos do site do IPEA (IPEADATA), onde estão disponíveis séries de consumo, renda, juros, crédito, assim como deflatores. As séries foram tratadas de maneira a se padronizarem como trimestrais, incorporando o período entre primeiro trimestre de 1991 e o segundo trimestre de 2009. Com o auxílio de técnica de estimação de quebras estruturais, ficaram evidentes os momentos em que as séries macroeconômicas tiveram mudanças significativas. Desta maneira, o histórico de informações foi subdividido conforme o panorama econômico. Cada período deste histórico foi submetido a um processo de estimação de crescimento de consumo a partir de crescimento de renda, juros e crescimento de crédito. A teoria de suavização do consumo sugere que a estimação deveria resultar em estimativas não significantes, pois o consumo não estaria atrelado ao acesso ao credito ou variações temporárias da renda. O que se verificou foi que em um histórico mais distante, os resultados foram bastante parecidos com resultados observados em bibliografia. Entretanto, em um período mais recente o consumo estaria se desvencilhando da renda e do crédito. Isto sugere que a suavização do consumo pode estar se concretizando no Brasil.
Resumo:
Esse estudo estende a metodologia de Fama e French (1988) para testar a hipótese derivada da Teoria dos Estoques de que o convenience yield dos estoques diminui a uma taxa decrescente com o aumento de estoque. Como descrito por Samuelson (1965), a Teoria implica que as variações nos preços à vista (spot) e dos futuros (ou dos contratos a termo) serão similares quando os estoques estão altos, mas os preços futuros variarão menos que os preços à vista quando os estoques estão baixos. Isso ocorre porque os choques de oferta e demanda podem ser absorvidos por ajustes no estoque quando este está alto, afetando de maneira similar os preços à vista e futuros. Por outro lado, quando os estoques estão baixos, toda a absorção dos choques de demanda ou oferta recai sobre o preço à vista, uma vez que os agentes econômicos têm pouca condição de reagir à quantidade demandada ou ofertada no curto prazo.
Resumo:
Este trabalho aplica a teoria de cópulas à mensuração do risco de mercado, através do cálculo do Value at Risk (VaR). A função de cópula oferece uma maior flexibilidade para a agregação de riscos quando comparada com abordagens tradicionais de mensuração de risco. A teoria de cópulas permite a utilização de distribuições de probabilidade diferentes da normal para a modelagem individual dos fatores de risco. Além disso, diferentes estruturas de associação entre eles podem ser aplicadas sem que restrições sejam impostas às suas distribuições. Dessa forma, premissas como a normalidade conjunta dos retornos e a linearidade na dependência entre fatores de risco podem ser dispensadas, possibilitando a correta modelagem de eventos conjuntos extremos e de assimetria na relação de dependência. Após a apresentação dos principais conceitos associados ao tema, um modelo de cópula foi desenvolvido para o cálculo do VaR de três carteiras, expostas aos mercados brasileiros cambial e acionário. Em seguida, a sua precisão foi comparada com a das metodologias tradicionais delta-normal e de simulação histórica. Os resultados mostraram que o modelo baseado na teoria de cópulas foi superior aos tradicionais na previsão de eventos extremos, representados pelo VaR 99%. No caso do VaR 95%, o modelo delta-normal apresentou o melhor desempenho. Finalmente, foi possível concluir que o estudo da teoria de cópulas é de grande relevância para a gestão de riscos financeiros. Fica a sugestão de que variações do modelo de VaR desenvolvido neste trabalho sejam testadas, e que esta teoria seja também aplicada à gestão de outros riscos, como o de crédito, operacional, e até mesmo o risco integrado.
Resumo:
Na presente dissertação foi apresentada, pela primeira vez para o mercado brasileiro, uma aplicação da análise de componentes principais para a identificação dos fatores que influenciam o comportamento da estrutura temporal de cupom cambial brasileira, tendo como amostra cotações de ajuste dos contratos futuros de DDI e de FRA (Forward Rate Agreement) de cupom cambial da BM&F, cotações de fechamento do Dólar à vista e cotações de venda da Ptax800, para o período entre 02/01/2002 e 29/12/2005. Através da aplicação da técnica de análise de componentes principais para as curvas de cupom cambial limpo à vista e a termo foi possível observar superioridade no poder explicativo da última com relação à primeira, com três componentes principais sendo responsáveis por mais de 94% da variabilidade explicada na aplicação da análise de componentes principais à curva a termo de cupom cambial. A superioridade dos resultados obtidos na análise da curva a termo de cupom cambial também pôde ser observada na interpretação visual dos componentes de nível, inclinação e curvatura (interpretação esta que não pôde ser claramente obtida na análise dos gráficos referentes à curva à vista de cupom cambial). Este trabalho também teve como objetivo a análise da efetividade de uma aplicação de imunização do risco de variação nas taxas de cupom cambial baseada nos resultados anteriormente obtidos com a análise de componentes principais da curva a termo de cupom cambial. A estratégia de imunização realizada demonstrou alta efetividade na comparação entre os resultados da carteira objeto de imunização (carteira arbitrária de swaps DólarxCDI) e os resultados da carteira instrumento de imunização (contratos futuros de FRA de cupom cambial da BM&F). Este resultado é de grande importância para o gerenciamento de carteiras que possuam títulos expostos ao risco de variações na curva de cupom cambial.
Resumo:
A presente dissertação tem como objeto de estudo a superfície de volatilidade implícita de opções européias da paridade Real / Dólar no mercado brasileiro. Este trabalho não tenta explicar as deformações ou os desvios da volatilidade implícita com relação à hipótese de volatilidade constante do modelo de Black & Scholes (1973), mas trata a volatilidade implícita como uma variável financeira interessante por si só, procurando analisar a dinâmica de sua superfície. Para a análise desta superfície, o presente estudo propõe a utilização de uma ferramenta empregada em estudos empíricos de diversos ramos da ciência: a Análise de Componentes Principais – ACP (Principal Component Analysis). As mudanças na superfície de volatilidade alteram o apreçamento das opções de uma carteira. Desta forma, constituem um fator de risco que precisa ser estudado e entendido para o desenvolvimento de estratégias de imunização e de técnicas de gerenciamento de risco, dentre elas o cálculo de Valor em Risco (V@R – Value at Risk). De posse dos resultados obtidos com a análise de componentes principais da superfície de volatilidade implícita, o presente estudo tem por objetivo obter valores limite de variação desta volatilidade implícita, como forma de estimar as conseqüentes variações extremas nos valores de uma carteira de opções. Para tanto, baseia-se em estudos sobre a aplicação da análise de componentes principais da superfície de volatilidade implícita desenvolvidos por Alexander (2001). Estes estudos, por sua vez, são derivados de estudo sobre a dinâmica de curvas de volatilidade proposto por Derman (1999). Para se verificar a eficiência da metodologia proposta, os valores extremos obtidos são testados de acordo com os critérios de teste retroativo propostos pela emenda ao comitê da Basiléia de 1996.
Resumo:
O objetivo deste trabalho é caracterizar o padrão de concorrência no mercado de leite fluido (longa vida e pasteurizado) na cidade de São Paulo a partir de evidências sobre os movimentos de preços no varejo e do comportamento das margens de mercado. Utilizou-se o modelo originalmente proposto por Houck (1977) acrescido das observações feitas por Carman e Sexton (2005). Essa abordagem separa as variáveis explicativas entre aumentos e diminuições de preços pagos ao produtor. Além de maior clareza na sua estrutura, essa construção permite comparar a defasagem entre esses dois movimentos e estudar a estratégia de preços dos agentes a partir das margens dos intermediários. O período analisado foi de dezembro de 1999 à dezembro de 2005, com dados de preços ao consumidor da FIPE e dados de preços ao produtor da CEPEA/ USP. Identificou-se que o padrão de concorrência do leite longa vida é bastante diverso do encontrado para o leite pasteurizado. Enquanto para o longa vida o padrão de concorrência é mais próximo do modelo competitivo, para o leite pasteurizado o padrão encontrado foi de pouca concorrência. Para compreender essas diferenças, foi discutido o aspecto locacional do varejo e a importância do mercado relevante geográfico. Os resultados permitem algumas inferências para análises setoriais e de políticas públicas voltadas à produção leiteira. O vertiginoso crescimento das vendas de leite longa vida, absorvendo grande parte do mercado antes abastecido pelo leite pasteurizado, trouxe maior concorrência nos segmentos de indústria e distribuição, assim como maior velocidade de transmissão de preços ao longo da cadeia produtiva. Entretanto, a precificação com markups com percentual fixo, observada no leite longa vida, indica que indústria e distribuição gozam de algum poder de mercado e que variações de custo da matéria-prima são repassadas mais que proporcionalmente, em termos absolutos, ao consumidor final.