940 resultados para Análise do risco de investimento
Resumo:
Há forte evidência que os retornos das séries financeiras apresentam caudas mais pesadas que as da distribuição normal, principalmente em mercados emergentes. No entanto, muitos modelos de risco utilizados pelas instituições financeiras baseiam-se em normalidade condicional ou não condicional, reduzindo a acurácia das estimativas. Os recentes avanços na Teoria de Valores Extremos permitem sua aplicação na modelagem de risco, como por exemplo, na estimação do Valor em Risco e do requerimento de capital. Este trabalho verifica a adequação de um procedimento proposto por McNeil e Frey [1999] para estimação do Valor em Risco e conseqüente requerimento de capital às principais séries financeiras de retornos do Brasil. Tal procedimento semi-paramétrico combina um modelo GARCH ajustado por pseudo máxima verossimilhança para estimação da volatilidade corrente com a Teoria de Valores Extremos para estimação das caudas da distribuição das inovações do modelo GARCH. O procedimento foi comparado através de backtestings com outros métodos mais comuns de estimação de VaR que desconsideram caudas pesadas das inovações ou a natureza estocástica da volatilidade. Concluiu-se que o procedimento proposto por McNeil e Frey [1999] mostrou melhores resultados, principalmente para eventos relacionados a movimentos negativos nos mercados . Futuros trabalhos consistirão no estudo de uma abordagem multivariada de grandes dimensões para estimação de VaR e requerimento de capital para carteiras de investimentos.
Resumo:
Diante do inédito momento vivido pela economia brasileira e, especialmente, pela bolsa de valores nacional, principalmente após a obtenção do grau de investimento pelo Brasil, este trabalho aborda um tema que ganhou um enorme espaço na mídia atual que é a análise técnica. A partir de uma amostra de 37 ações listadas na Bolsa de Valores de São Paulo no período compreendido entre janeiro de 1999 e agosto de 2009, este trabalho examina se a análise técnica agrega valor 'as decisões de investimentos. Através da elaboração de intervalos de confiança, construídos através da técnica de Bootstrap de inferência amostral, e consistentes com a hipótese nula de eficiência de mercado na sua forma fraca, foram testados 4 sistemas técnicos de trading. Mais especificamente, obteve-se os resultados de cada sistema aplicado às series originais dos ativos. Então, comparou-se esses resultados com a média dos resultados obtidos quando os mesmos sistemas foram aplicados a 1000 séries simuladas, segundo um random walk, de cada ativo. Caso os mercados sejam eficientes em sua forma fraca, não haveria nenhuma razão para se encontrar estratégias com retornos positivos, baseando-se apenas nos valores históricos dos ativos. Ou seja, não haveria razão para os resultados das séries originais serem maiores que os das séries simuladas. Os resultados empíricos encontrados sugeriram que os sistemas testados não foram capazes de antecipar o futuro utilizando-se apenas de dados passados. Porém, alguns deles geraram retornos expressivos e só foram superados pelas séries simuladas em aproximadamente 25% da amostra, indicando que a análise técnica tem sim seu valor.
Resumo:
A principal contribuição deste estudo consiste em incluir o risco de liquidez entre os fatores que influenciam o apreçamento dos títulos de renda fixa corporativos brasileiros. Ao longo do trabalho mostramos que, muito embora intuitivamente o preço de uma determinada debênture deva ser uma função das suas características (prazo, rating, garantias, etc), o risco de crédito (risco de inadimplemento do emissor) e o risco de liquidez (risco de não conseguir montar ou se desfazer de uma posição a qualquer momento no preço do mercado) são os dois fatores que melhor definem os riscos envolvidos ao se emitir/comprar uma debênture. O risco de crédito tem sido o foco dos esforços para modelar o preço de um título de renda fixa, principalmente por causa do interesse dos bancos em marcar suas posições de crédito. No entanto, o que se propõe neste trabalho é incorporar o prêmio de liquidez inerente às debêntures distribuídas aos investidores nesses modelos, como um meio de melhor apreçar esses títulos. A tentativa de comprovação dessa hipótese foi feita acompanhando-se os preços indicativos no mercado secundário de debêntures, contrapondo-os aos preços obtidos via modelo de crédito e via modelo de crédito acrescido de modelo de liquidez. Os modelos adotados foram os que possuem características mais adaptáveis ao mercado brasileiro e/ou que fossem de mais simples implementação dadas as restrições brasileiras no que diz respeito à base de dados necessária para a aplicação de cada modelo. No caso do modelo de crédito, após uma revisão detalhada, adotou-se o modelo sugerido por MERTON (1974). Para o modelo do risco de liquidez, o modelo adotado foi o do VaR modificado para contemplar o spread de liquidez. Os resultados obtidos, embora não indiquem que o modelo proposto é eficiente no apreçamento de debêntures, apontam para uma comprovação da hipótese inicial, ou seja, que a inclusão do risco de liquidez nos modelos de apreçamento de crédito aumentam o poder explicativo do modelo de apreçamento resultante e que, portanto, esse seria uma ferramenta importante na análise do mercado de debêntures brasileiro.
Resumo:
O presente estudo tem como objetivo analisar o preço do investimento no Brasil entre 1970 e 2005. Neste período, o preço do investimento, detectado pela série do deflator da formação bruta de capital fixo sobre a série do deflator do PIB, aumentou de forma acentuada. Através de uma análise do comportamento das séries que compõem o preço do investimento, ou seja, das séries que representam o preço do investimento em construção e em máquinas e equipamentos, objetiva-se determinar quais os principais responsáveis por esse aumento expressivo ao longo dos anos. A discussão a respeito do preço do investimento faz parte de uma discussão maior a respeito do crescimento econômico do país que envolve estudos a respeito da decomposição do crescimento, da produtividade do capital e dos impactos da abertura comercial. Baixar o preço dos investimentos surge, então, como uma questão importante para o crescimento e o presente estudo pretende colaborar para construção de um entendimento sobre o assunto.
Resumo:
O grau de liberdade da política monetária é uma questão muito relevante em um país que decide adotar um regime de metas inflacionárias e câmbio flutuante. Caso a autoridade monetária desse país não tenha liberdade para atuar, o regime de metas pode ser ineficiente. Em especial, caso esse país se encontre numa situação de Dominância Fiscal, a política monetária pode ter efeitos perversos sobre a relação dívida/PIB, aumentando seu prêmio de risco soberano e causando um aumento na probabilidade de default implícita em seus títulos soberanos. O intuito desse trabalho é realizar o teste de dominância a partir de um modelo proposto por Olivier Blanchard em 2004, e testar primeiro se o país se encontrava em dominância em 2002, 2003 e depois analisar o resultado desse modelo até novembro de 2005. Algumas modificações de variáveis utilizadas, medidas de risco e taxa de juros são propostas e é acrescido ao modelo um teste de estabilidade de coeficientes e a incerteza causada no período eleitoral em 2002. Além disso, é analisada a reação do Banco Central no período, para identificar se sua reação compartilhava da visão de dominância que o modelo original apresentava ou não. A conclusão é que o Brasil, mesmo após as alterações sugeridas, ainda se encontra numa situação de dominância fiscal segundo a descrição do modelo. Porém, o resultado final é cerca de 20% do originalmente observado em 2004, resultando em uma liberdade de atuação significativamente maior para a autoridade monetária no Brasil em 2002 e 2003. O Banco Central parece ter reagido a mudanças de expectativa de inflação e não parecia compartilhar um diagnóstico de dominância fiscal ao longo de 2002. As eleições foram significativas para explicar aumento da probabilidade de default, mas não alteram significativamente o resultado do teste após as mudanças de variáveis. A medida de risco proposta resulta em um modelo melhor para medir dominância no Brasil. A mensagem final é que o Brasil ainda precisa se preocupar com as restrições fiscais, mas elas são menores que o modelo original propunha.
Resumo:
A Análise Técnica postula que os preços dos ativos nos mercados financeiros se movem em tendências de alta ou baixa. Ainda, no meio de uma tendência há patamares de preços, suportes e resistências, que quando rompidos indicam uma possível reversão dos preços para a direção contrária à direção vigente. Conseqüentemente, após essa “falha de movimento”, os agentes se beneficiariam dessa informação para tomar suas decisões de investimento e obter lucros. O presente trabalho analisa tal afirmação verificando a ocorrência deste fato no mercado de moedas, FOREX. A análise é feita por meio do teste de médias dos retornos de uma estratégia operacional baseada nas falhas contra a simples estratégia buy-and-hold. Adicionalmente, são feitas análises de sensibilidade para enriquecer o estudo. Por fim, verifica-se que a estratégia proposta não oferece resultados conclusivos a favor das falhas.
Resumo:
Estudos empíricos sobre os determinantes de investimentos privados em países em desenvolvimento, incluindo vários estudos para o Brasil, mostraram o impacto negativo de elevadas taxas de inflação sobre os investimentos privados. No entanto, a experiência brasileira recente mostra claramente que a estabilização por si só não é capaz de fazer com que as taxas de investimento se recuperem. Este trabalho objetiva a busca de respostas em evidências empíricas sobre quais teriam sido os principais fatores responsáveis pela não recuperação dos investimentos no Brasil pós-plano Real, apesar do controle inflacionário, no período 1995-2004. Para isso, foi estimado um modelo de investimento privado em nível de longo prazo (1970-2003) com dados anuais. Estas estimações mostram evidência empírica de crowding-in dos investimentos públicos em infra-estrutura sobre os investimentos privados e do efeito de crowding-out dos demais investimentos públicos (que não são em infra-estrutura) sobre os investimentos privados. Para obter evidências empíricas do impacto negativo da carga tributária e dos preços relativos dos bens de capital sobre as taxas de investimento foi estimado um modelo trimestral com dados de 1995-2004. Uma análise mais detalhada sobre a carga tributária brasileira e sua composição mostrou ainda que, além de sua magnitude elevada, a carga tributária brasileira tem uma alocação desfavorável ao investimento privado, pois seu peso é muito maior sobre o setor produtivo do que sobre renda e patrimônio. Além disso, a despeito da arrecadação crescente nos últimos 10 anos, os gastos do governo têm se concentrado em gastos pouco ou não produtivos e tem diminuído a participação relativa dos investimentos públicos em infra-estrutura, que são gastos produtivos e estimuladores de investimentos privados (efeito de crowding-in).
Resumo:
Esta tese é composta por três artigos, nos quais são apresentadas extensões e aplicações da Teoria das Opções Reais, todas de interesse para formuladores de política econômica no Brasil. O primeiro faz uma análise original da questão da bioprospecção, ou a exploração da diversidade biológica para fins econômicos. Duas estruturas alternativas para o desenho do mecanismo de concessão, visando o uso sustentável da biodiversidade brasileira, são sugeridas: (i) um modelo de projetos de P&D com maturidade incerta, no qual a intensidade do processo de Poisson que governa o tempo de maturação é explicitamente dependente do nível da biodiversidade no local concedido; (ii) um modelo de Agente-Principal, onde o Estado delega o exercício da opção de investimento à empresa de pesquisa biotecnológica. O segundo artigo avança a analogia entre opções de venda (“put options”) e cotas de importação. Os parâmetros relevantes para apreçar as licenças são agora obtidos endogenamente, a partir da interação entre a firma importadora e os produtores domésticos. Por fim, no terceiro, é feita análise pioneira do mercado paralelo de títulos precatórios no Brasil. Um modelo para a valoração de tais títulos é construído e proposto, tendo por base o arcabouço institucional existente sobre o assunto, tanto no governo central, como nos estados e municípios.
Resumo:
Este trabalho tem como principal objetivo investigar as relações entre nível da taxa de câmbio real, poupança externa e poupança doméstica no Brasil. Dentro do modelo aqui explorado, casos de sobrevalorização excessiva do câmbio real levam à redução de margens de lucro nos setores de produção de bens comercializáveis, resultando numa queda importante no nível de poupança agregada doméstica, bem como na substituição da poupança doméstica pela poupança externa. A análise econométrica realizada para a economia brasileira indica que há uma relação estável de longo prazo entre taxa de câmbio e poupança interna, e que desvalorizações relativas da taxa de câmbio real têm impactos positivos e significantes sobre a poupança doméstica no período estudado. Além disso, os resultados das estimativas confirmam a existência de substituição de poupança doméstica por poupança externa
Resumo:
Neste trabalho, utilizamos informações do mercado de credit default swap para medir os principais componentes do spread das empresas do setor de óleo e gás. Utilizando cerca de 20 empresas da indústria de óleo e gás composta por companhias de diversos ratings e aproximadamente 80 bonds, os resultados mostraram que a maior parte do spread corporativo do setor decorre do risco de inadimplemento. Também encontramos que o componente do spread não relacionado ao default é fortemente associado a algumas medidas de liquidez do mercado de bonds, sugerindo que a liquidez tem um papel importante na avaliação de títulos de renda fixa. Por outro lado, não encontramos evidências da importância de fatores tributários na explicação do componente do spread não relacionado à inadimplência.
Resumo:
Há mais de uma década, o Value-at-Risk (VaR) é utilizado por instituições financeiras e corporações não financeiras para controlar o risco de mercado de carteiras de investimentos. O fato dos métodos paramétricos assumirem a hipótese de normalidade da distribuição de retornos dos fatores de risco de mercado, leva alguns gestores de risco a utilizar métodos por simulação histórica para calcular o VaR das carteiras. A principal crítica à simulação histórica tradicional é, no entanto, dar o mesmo peso na distribuição à todos os retornos encontrados no período. Este trabalho testa o modelo de simulação histórica com atualização de volatilidade proposto por Hull e White (1998) com dados do mercado brasileiro de ações e compara seu desempenho com o modelo tradicional. Os resultados mostraram um desempenho superior do modelo de Hull e White na previsão de perdas para as carteiras e na sua velocidade de adaptação à períodos de ruptura da volatilidade do mercado.
Resumo:
As Séries de Fourier permitiram o advento de tecnologias aplicadas em diversas áreas do conhecimento ao proporcionar uma melhor compreensão do comportamento de séries de dados, decompondo-as em diversas harmônicas independentes. Poucos estudos foram encontrados aplicando tal ferramenta matemática para analisar séries de retornos de títulos financeiros. Este trabalho pesquisou - através de análise discreta de Fourier – o comportamento dos retornos de quatro ativos: Dow Jones, Ibovespa, e duas ações da Bolsa brasileira. Cotações mensais, diárias e de dez minutos (intraday) foram utilizadas. Além do espectro estático, registrou-se também a dinâmica dos coeficientes das harmônicas de Fourier. Os resultados indicaram a validade da forma fraca de eficiência de mercado para o curto prazo, dado que as harmônicas de período curto apresentaram comportamento aleatório. Por outro lado, o comportamento das harmônicas de longo prazo (período longo) apresentou maior correlação serial, sugerindo que no longo prazo o mercado não se comporta de acordo com o modelo Random Walk. Uma aplicação derivada deste estudo é a determinação do número de fatores necessários para uma modelagem via Precificação por Arbitragem (APT), dado um nível de correlação desejado.
Resumo:
As cidades apresentam as múltiplas dimensões do homem que, por sua vez, enovelam-se numa multiplicidade de relações internas exigindo de quem busca a compreensão destas espacialidades, também uma multiplicidade de olhares que se entrecruzam na constituição de um espaço que, por sua vez, é entendido e analisado, na maioria das vezes, sob uma visão mais totalizadora. Ao se buscar uma visão mais totalizada dos espaços urbanos, mascara-se um conjunto de redes de ações constituídas por agentes locais responsáveis pelo processo de urbanização/fragmentação do espaço e que, também, estão por trás da apropriação da terra urbana, a fim de atender aos interesses pessoais, que acabam por gerir profundas desigualdades, tanto no campo social como no espacial. A constituição deste cenário foi sendo montada paralelamente ao intenso processo de urbanização ocorrido no Brasil, alavancado pelo “milagre econômico brasileiro” que provocou um forte êxodo rural, de forma especial, nas décadas de 1960 e 1970. Nesse processo, muitas cidades, que ofereciam alguma oportunidade de empregos, logo foram tomadas por pessoas que abandonavam o campo em busca de melhores oportunidades nos centros urbanos. A rapidez com a qual se processou este fenômeno fez com que a maioria das cidades não estivesse preparadas para receber um grande fluxo de pessoas, tanto no que diz respeito à infra-estrutura urbana, quanto na oferta de oportunidades de empregos. A conjugação desses dois fatores levou a rupturas na organização dos espaços urbanos que, com o tempo, foram se reorganizando e se reproduzindo em múltiplas relações internas redesenhado uma nova espacialidade urbana. É na constituição dessa nova espacialidade urbana, que fez a cidade de Novo Hamburgo, distante 45km da capital Porto Alegre, reproduzir em seu território uma gama de novos espaços, construídos no bojo da sua industrialização, baseada no setor coureiro-calçadista e acompanhada fortemente pelo 9 êxodo rural; que fez constituir na paisagem urbana inúmeras sub-moradias em áreas que não despertavam grandes interesses imobiliários, como as de domínio público e as de risco. A partir da década de 1990, ocorreu uma estagnação da economia em escala nacional estancando, também, os fluxos migratórios, o que fez atingir assim, a grande Porto Alegre, onde a cidade de Novo Hamburgo está inserida. A partir dessa estagnação do êxodo rural e de uma relativa recuperação da economia coureiro-calçadista, a prefeitura municipal, através de suas secretarias, busca atualmente, uma recuperação e revitalização desses espaços urbanos embasados em uma retórica sócioambiental. Um dos pontos em que a prefeitura municipal de Novo Hamburgo vem atuando envolve as vilas formadas ao longo das margens do arroio Pampa. Este arroio atravessa dois dos bairros mais populosos do município e é onde as questões sociais através das sub-habitações e as questões ambientais através da degradação das águas do arroio estão presentes. As políticas públicas adotadas na revitalização e recuperação das margens e do arroio “agredidos” pela ocupação humana, na realidade, não recomporão o quadro natural. A Secretaria de Obras do município está construindo uma avenida que margeará todo o arroio. Assim, quando todas as famílias que ali se encontram forem removidas, a qualidade das águas do arroio Pampa continuará péssima; entretanto, a cidade de Novo Hamburgo não possui estação de tratamento de esgoto, e as indústrias localizadas próximas ao arroio também despejam seus desejos nele sem o tratamento adequado. Este estudo aponta que, no aspecto social, a prefeitura está apenas promovendo a remoção das famílias para loteamentos populares (a prefeitura somente disponibiliza o terreno); no entanto, estão muito distantes do ponto onde atualmente vivem e com pouca oferta de infra-estrutura urbana. Esta remoção, para um lugar muito distante, provoca uma grande ruptura na territorialidade desta população, além de encarecer o seu custo de vida com transportes para ter acesso às escolas, ao local de trabalho, a bancos, a postos de saúde, por exemplo. A desterritorialização e a necessidade de recompor uma nova territorialidade sob as condições impostas pelo poder público municipal não a coloca numa situação de inclusão social e, de certa forma, fere a sua cidadania construída nas margens do arroio Pampa, mas não necessariamente vinculada a ele.
Revisão sistemática e meta-análise do uso de antidepressivos no transtorno de ansiedade generalizada
Resumo:
Revisão da Literatura: O Transtorno de Ansiedade Generalizada (TAG) é caracterizado por preocupação excessiva, persistente e incontrolável sobre diversos aspectos da vida do paciente. Tem prevalência entre 1,6% e 5,1% e índice de comorbidades de até 90,4%. As principais comorbidades são depressão maior (64%) e distimia (37%). Os antidepressivos podem ser eficazes no tratamento do TAG. A Medicina Baseada em Evidências (MBE) busca reunir a melhor evidência disponível com experiência clínica e conhecimentos de fisiopatologia. A melhor maneira disponível de síntese das evidências é a revisão sistemática e a meta-análise. Objetivos: Investigar a eficácia e tolerabilidade dos antidepressivos no tratamento do TAG através de uma revisão sistemática da literatura e meta-análise. Sumário do artigo científico: A revisão sistemática incluiu ensaios clínicos randomizados e controlados e excluiu estudos não-randomizados, estudos com pacientes com TAG e outro transtorno de eixo I. Os dados foram extraídos por dois revisores independentes e risco relativo, diferença da média ponderada e número necessário para tratamento (NNT) foram calculados. Antidepressivos (imipramina, paroxetina e venlafaxina) foram superiores ao placebo. O NNT calculado foi de 5,5. A evidência disponível sugere que os antidepressivos são superiores ao placebo no tratamento do TAG e bem tolerados pelos pacientes.
Resumo:
O presente trabalho tem como objetivo apresentar por meio de um exemplo prático a quantificação de Risco Operacional, utilizando um Modelo de Distribuição de Perdas Agregadas - LDA, Loss Distribution Approach - aplicado a riscos em instituições não financeiras. A idéia é mostrar como um método simples pode ser aplicado para realizar a gestão do risco operacional com foco em redução de perdas potenciais. O estudo faz uma breve análise sobre algumas técnicas que viabilizam a utilização de dados históricos e de julgamento de especialistas, e em seguida aprofunda-se em um método em que os especialistas inferem diretamente nos parâmetros das distribuições de freqüência e de severidade.