79 resultados para Técnicas de estimação
Resumo:
Este trabalho contribui a discussão de diversificação internacional no contexto de investidores brasileiros com referência na moeda local (Reais). O trabalho testa as seguintes hipóteses: (1) se a adição de ativos internacionais não aumenta a eficiência (melhora na relação retorno/risco) de carteiras somente com ativos brasileiros, (2) se carteiras de menor risco exigem mais alocações internacionais e, (3) se alocação de ativos é parecida para investidores com referências em dólar ou em reais. Esse trabalho utiliza modelos já conhecidos de fronteiras eficientes com aplicação de técnicas que utilizam rotinas de Monte Carlo para suavizar possíveis erros na estimação dos retornos das classes de ativos, que incorporam ainda incertezas sobre o câmbio. Nas simulações são utilizadas uma cesta de ativos locais e uma cesta de ativos que melhor representa o mercado internacional. Apesar da grande maioria dos investidores brasileiros utilizarem muito pouco ativos internacionais em suas carteiras, seja por motivos de Home Bias, fatores históricos macroeconômicos evidenciados pelas altas taxas de juros ou limitações regulatórias, os resultados empíricos demonstram que existem ganhos de eficiência para as carteiras de investidores brasileiros ao se incluir ativos internacionais na alocação de ativos. Esses ganhos de eficiência são evidenciados para todos os perfis de risco, desde os mais conservadores até os perfis mais agressivos. Os resultados mostram que quanto maior o perfil de risco da carteira, maior é a alocação internacional que maximiza a eficiência da carteira. E por último, a referência da moeda muda significativamente a alocação eficiente de carteiras, carteiras com referência em dólar exigem menos diversificação com ativos em reais do que carteiras com referência em Reais exigem diversificação com ativos internacionais.
Resumo:
O conceito Balanced Scorecard (BSC) facilita a visualização da estratégia para liderança das organizações. No entanto, percebe-se, na prática, que é pouco explorado no tocante ao desdobramento das metas. Nesse contexto, a presente dissertação tem como objetivo identificar os fatores críticos de sucesso, à luz do conceito de BSC, que impactam o desdobramento de metas. Inicialmente, pretende-se verificar se o processo é realizado em todos os níveis das organizações, procurando identificar e compreender as principais dificuldades e lacunas. Para tanto, utiliza-se a aplicação de técnicas de convergência de opiniões, com base na metodologia Delphi, concentrando-se na percepção de profissionais especialistas e consultores no Brasil, que possuem experiência marcante na implementação e gestão de soluções BSC. A pesquisa revela que uma das principais dificuldades e lacunas, no que se refere ao desdobramento de metas, constitui-se em fazê-lo atingir a totalidade dos níveis nas organizações. A principal causa está no desalinhamento da estratégia, sendo que, ao mesmo tempo em que há um considerável esforço e dedicação por parte da força de trabalho, a estratégia apresenta, ainda, determinada falta de foco, fato que a compromete bem como ao resultado almejado.
Resumo:
Esta tese é composta por três artigos. Dois deles investigam assuntos afeitos a tributação e o terceiro é um artigo sobre o tema “poupança”'. Embora os objetos de análise sejam distintos, os três possuem como característica comum a aplicação de técnicas de econometria de dados em painel a bases de dados inéditas. Em dois dos artigos, utiliza-se estimação por GMM em modelos dinâmicos. Por sua vez, o artigo remanescente é uma aplicação de modelos de variável dependente latente. Abaixo, apresenta-se um breve resumo de cada artigo, começando pelos dois artigos de tributação, que dividem uma seção comum sobre o ICMS (o imposto estadual sobre valor adicionado) e terminando com o artigo sobre poupança. O primeiro artigo analisa a importância da fiscalização como instrumento para deter a evasão de tributos e aumentar a receita tributária, no caso de um imposto sobre valor adicionado, no contexto de um país em desenvolvimento. O estudo é realizado com dados do estado de São Paulo. Para tratar questões relativas a endogeneidade e inércia na série de receita tributária, empregam-se técnicas de painel dinâmico. Utiliza-se como variáveis de controle o nível do PIB regional e duas proxies para esforço fiscal: a quantidade e o valor das multas tributárias. Os resultados apontam impacto significativo do esforço fiscal nas receitas tributárias. O artigo evidencia, indiretamente, a forma como a evasão fiscal é afetada pela penalidade aplicada aos casos de sonegação. Suas conclusões também são relevantes no contexto das discussões sobre o federalismo fiscal brasileiro, especialmente no caso de uma reforma tributária potencial. O segundo artigo examina uma das principais tarefas das administrações tributárias: a escolha periódica de contribuintes para auditoria. A melhora na eficiência dos mecanismos de seleção de empresas tem o potencial de impactar positivamente a probabilidade de detecção de fraudes fiscais, provendo melhor alocação dos escassos recursos fiscais. Neste artigo, tentamos desenvolver este mecanismo calculando a probabilidade de sonegação associada a cada contribuinte. Isto é feito, no universo restrito de empresas auditadas, por meio da combinação “ótima” de diversos indicadores fiscais existentes e de informações dos resultados dos procedimentos de auditoria, em modelos de variável dependente latente. Após calculados os coeficientes, a probabilidade de sonegação é calculada para todo o universo de contribuintes. O método foi empregado em um painel com micro-dados de empresas sujeitas ao recolhimento de ICMS no âmbito da Delegacia Tributária de Guarulhos, no estado de São Paulo. O terceiro artigo analisa as baixas taxas de poupança dos países latino-americanos nas últimas décadas. Utilizando técnicas de dados em painel, identificam-se os determinantes da taxa de poupança. Em seguida, faz-se uma análise contrafactual usando a China, que tem apresentado altas taxas de poupança no mesmo período, como parâmetro. Atenção especial é dispensada ao Brasil, que tem ficado muito atrás dos seus pares no grupo dos BRICs neste quesito. O artigo contribui para a literatura existente em vários sentidos: emprega duas amplas bases de dados para analisar a influência de uma grande variedade de determinantes da taxa de poupança, incluindo variáveis demográficas e de previdência social; confirma resultados previamente encontrados na literatura, com a robustez conferida por bases de dados mais ricas; para alguns países latino-americanos, revela que as suas taxas de poupança tenderiam a aumentar se eles tivessem um comportamento mais semelhante ao da China em outras áreas, mas o incremento não seria tão dramático.
Resumo:
Este artigo estima a transmissão da variação cambial aos índices de preços brasileiros, utilizando a metodologia de vetores autorregressivos estruturais (SVAR) com vetores de correção de erros (VEC). O período estudado tem início na introdução do regime de metas para a inflação (junho de 1999) e se encerra em setembro de 2011. Os resultados reforçam a avaliação de que houve amadurecimento da política monetária nos últimos anos, concomitantemente a uma melhora do ambiente macroeconômico. Na comparação dos nossos resultados com estudos anteriores, encontramos significativa redução do pass-through da taxa de câmbio para os índices de inflação.
Resumo:
A Documentoscopia é a maior área de perícia da Criminalística da PF, respondendo por 24,49% de toda a produção de laudos do Sistema Nacional de Criminalística. Apesar disso, não possui área de concurso ou graduação específicas, e o desenvolvimento das competências da área depende quase que exclusivamente da capacitação oferecida e executada internamente, dentro da instituição e do ambiente de trabalho. Considerando os planejamentos estratégicos da Direção Geral e da Diretoria Técnico-Científica da PF, que manifestaram a importância da valorização de seus servidores por meio da capacitação contínua e da gestão de competências como estratégia para se alcançar suas missões, vê-se a relevância no adequado estudo e desenvolvimento das competências na área da perícia documentoscópica. O presente trabalho tem por objetivo analisar se as competências técnicas dos peritos documentoscópico da Polícia Federal elencadas na matriz da função técnica da PF estão em consonância com as elencadas pela ONU para os examinadores forenses de documentos, e se essas competências estão sendo desenvolvidas nas ações de capacitação oferecidas pela ANP voltadas para a área. Foram identificadas algumas lacunas, ou seja, recomendações da ONU que encontram correspondência nas elencadas na matriz, mas não são desenvolvidas pelas ações de capacitação, além da discrepância quanto à carga horária dos cursos. Algumas sugestões para a minimização ou eliminação dessas lacunas foram colocadas, e outras considerações foram feitas, principalmente voltadas à maior oferta de capacitação, à especialização profissional, à instituição de testes de proficiência e da mentoria.
Resumo:
Neste trabalho busca-se investigar empiricamente, no caso brasileiro, o comportamento da medida de risco de Foster e Hart, sua capacidade de estimação de retornos e se ela pode ser usada como indicador do momento do mercado. Esta medida é de fácil assimilação e cálculo, respeita axiomas de coerência, sendo indiferente a aversão ao risco dos agentes e mensurada na mesma unidade dos retornos. Encontram-se evidências de que o risco reage a momentos de estresse do mercado e da existência de um relacionamento positivo com retornos futuros.
Resumo:
Por definição as empresas startups estão expostas a mais riscos e vulnerabilidades que empresas maduras e já estabelecidas no mercado. O objetivo do presente estudo é identificar, aplicar e testar uma possível metodologia para calcular prêmio de risco adicional para startups. Para tanto este trabalho desenvolve um estudo de caso no qual a conhecida metodologia para cálculo de prêmio de risco de tamanho da Morningstar é aplicada a uma startup americana. A aderência da metodologia proposta neste estudo é testada pela metodologia do filtro de Kalman, que calcula o prêmio de risco por tamanho variando ao longo do tempo. Os resultados encontrados são similares em ambas as metodologias. De forma que é possível concluir que a metodologia da Morningstar, quando aplicada para calcular prêmio por tamanho variante ao longo do tempo é robusta.
Resumo:
The onset of the financial crisis in 2008 and the European sovereign crisis in 2010 renewed the interest of macroeconomists on the role played by credit in business cycle fluctuations. The purpose of the present work is to present empirical evidence on the monetary policy transmission mechanism in Brazil with a special eye on the role played by the credit channel, using different econometric techniques. It is comprised by three articles. The first one presents a review of the literature of financial frictions, with a focus on the overlaps between credit activity and the monetary policy. It highlights how the sharp disruptions in the financial markets spurred central banks in developed and emerging nations to deploy of a broad set of non conventional tools to overcome the damage on financial intermediation. A chapter is dedicated to the challenge face by the policymaking in emerging markets and Brazil in particular in the highly integrated global capital market. This second article investigates the implications of the credit channel of the monetary policy transmission mechanism in the case of Brazil, using a structural FAVAR (SFAVAR) approach. The term “structural” comes from the estimation strategy, which generates factors that have a clear economic interpretation. The results show that unexpected shocks in the proxies for the external finance premium and the credit volume produce large and persistent fluctuations in inflation and economic activity – accounting for more than 30% of the error forecast variance of the latter in a three-year horizon. Counterfactual simulations demonstrate that the credit channel amplified the economic contraction in Brazil during the acute phase of the global financial crisis in the last quarter of 2008, thus gave an important impulse to the recovery period that followed. In the third articles, I make use of Bayesian estimation of a classical neo-Keynesian DSGE model, incorporating the financial accelerator channel developed by Bernanke, Gertler and Gilchrist (1999). The results present evidences in line to those already seen in the previous article: disturbances on the external finance premium – represented here by credit spreads – trigger significant responses on the aggregate demand and inflation and monetary policy shocks are amplified by the financial accelerator mechanism. Keywords: Macroeconomics, Monetary Policy, Credit Channel, Financial Accelerator, FAVAR, DSGE, Bayesian Econometrics
Resumo:
Este trabalho analisa as propriedades de uma nova medida de má especificação de modelos de apreçamento, que está relacionada com o tamanho do ajuste multiplicativo necessário para que o modelo seja corretamente especificado. A partir disso, caracterizamos o parâmetro que minimiza a medida a partir de um programa dual, de solução mais simples. Os estimadores naturais para esse parâmetro pertencem à classe de Generalized Empirical Likelihood. Derivamos as propriedades assintóticas deste estimador sob a hipótese de má especificação. A metodologia é empregada para estudar como se comportam em amostras finitas as estimativas de aversão relativa ao risco em uma economia de desastres quando os estimadores estão associados a nossa medida de má especificação. Nas simulações vemos que em média a aversão ao risco é superestimada, mesmo quando ocorre um número significativo de desastres.
Resumo:
Com o objetivo de mostrar uma aplicação dos modelos da família GARCH a taxas de câmbio, foram utilizadas técnicas estatísticas englobando análise multivariada de componentes principais e análise de séries temporais com modelagem de média e variância (volatilidade), primeiro e segundo momentos respectivamente. A utilização de análise de componentes principais auxilia na redução da dimensão dos dados levando a estimação de um menor número de modelos, sem contudo perder informação do conjunto original desses dados. Já o uso dos modelos GARCH justifica-se pela presença de heterocedasticidade na variância dos retornos das séries de taxas de câmbio. Com base nos modelos estimados foram simuladas novas séries diárias, via método de Monte Carlo (MC), as quais serviram de base para a estimativa de intervalos de confiança para cenários futuros de taxas de câmbio. Para a aplicação proposta foram selecionadas taxas de câmbio com maior market share de acordo com estudo do BIS, divulgado a cada três anos.
Resumo:
O objetivo do presente trabalho foi, face ao grau de integração da economia brasileira, testar o poder explicativo do Modelo Goldman Sachs sobre os retornos esperados por um investidor estrangeiro no mercado nacional, ao longo do período 2004-2013. Em um primeiro momento, foi testado o grau de integração da economia brasileira para o período 2004-2013, buscando entender o contexto em que o Modelo Goldman Sachs foi empregado. Posteriormente, para o teste do modelo, calcularam-se os betas dos fatores de risco dos ativos analisados (risco de mercado e risco país) e procedeu-se à regressão com dados em painel dos retornos esperados sobre os betas desses ativos. Verificou-se que o risco país não se mostrou estatisticamente significante para a explicação dos retornos esperados, o que indica que é adicionado de maneira ad hoc pelos praticantes de mercado para o cálculo do custo de capital próprio de acordo com o Modelo Goldman Sachs. Assim, embora haja evidências de uma relação positiva e significante entre risco sistemático e retorno, os resultados para o risco país demonstram que o Modelo Goldman Sachs não se mostrou satisfatório para a explicação dos retornos esperados no mercado brasileiro ao longo dos últimos dez anos.
Resumo:
A gestão de projetos provê uma maneira estruturada para que as empresas possam realizar suas iniciativas com uma maior probabilidade de sucesso. Porém, estudos mostram que o nível de falha nos projetos em dimensões básicas como tempo e custo ainda é alto. O objetivo deste trabalho de pesquisa foi identificar se os gerentes de projetos conhecem e utilizam as técnicas de planejamento e gestão de tempo e se estas técnicas podem levar ao sucesso no cumprimento do tempo originalmente planejado. Foi realizada uma pesquisa por meio de administração de formulário com 78 gerentes de projetos de São Paulo, destes foram obtidos 55 formulários completos e foi possível identificar que as técnicas mais conhecidas e utilizadas são do ciclo de vida linear e que, quanto maior o grau de uso destas técnicas, maior a frequência com que os gerentes de projeto atingem sucesso em seus projetos.
Resumo:
Este trabalho propõe um novo modelo para avaliação, em tempo discreto, do desconto de reequilíbrio em contratos de concessão rodoviária, a partir de conceitos da Teoria Clássica de Finanças e da Teoria de Opções Reais. O modelo desenvolvido permitiu incorporar flexibilidades decorrentes de incertezas nas situações reais, como decisões gerenciais, vieses de comportamento e componentes políticos, comumente presentes em contratos de concessões rodoviária. Os resultados obtidos, utilizando-se como estudo de caso a BR-262, sinalizaram que há espaço para uma melhor intervenção regulatória com relação ao mecanismo do desconto de reequilíbrio, no sentido de prover melhores incentivos aos concessionários.
Resumo:
The dissertation goal is to quantify the tail risk premium embedded into hedge funds' returns. Tail risk is the probability of extreme large losses. Although it is a rare event, asset pricing theory suggests that investors demand compensation for holding assets sensitive to extreme market downturns. By de nition, such events have a small likelihood to be represented in the sample, what poses a challenge to estimate the e ects of tail risk by means of traditional approaches such as VaR. The results show that it is not su cient to account for the tail risk stemming from equities markets. Active portfolio management employed by hedge funds demand a speci c measure to estimate and control tail risk. Our proposed factor lls that void inasmuch it presents explanatory power both over the time series as well as the cross-section of funds' returns.
Resumo:
O objetivo desse trabalho é encontrar uma medida dinâmica de liquidez de ações brasileiras, chamada VNET. Foram utilizados dados de alta frequência para criar um modelo capaz de medir o excesso de compras e vendas associadas a um movimento de preços. Ao variar no tempo, o VNET pode ser entendido como a variação da proporção de agentes informados em um modelo de informação assimétrica. Uma vez estimado, ele pode ser utilizado para prever mudanças na liquidez de uma ação. O VNET tem implicações práticas importantes, podendo ser utilizado por operadores como uma medida estocástica para identificar quais seriam os melhores momentos para operar. Gerentes de risco também podem estimar a deterioração de preço esperada ao se liquidar uma posição, sendo possível analisar suas diversas opções, servindo de base para otimização da execução. Na construção do trabalho encontramos as durações de preço de cada ação e as diversas medidas associadas a elas. Com base nos dados observa-se que a profundidade varia com ágio de compra e venda, com o volume negociado, com o numero de negócios, com a duração de preços condicional e com o seu erro de previsão. Os resíduos da regressão de VNET se mostraram bem comportados o que corrobora a hipótese de que o modelo foi bem especificado. Para estimar a curva de reação do mercado, variamos os intervalos de preço usados na definição das durações.