987 resultados para Estimação TMDA
Resumo:
A presente dissertação tem como objetivo apresentar dois importantes modelos usados na análise de risco. Essa análise culmina em uma aplicação empírica para cada um deles. Apresenta-se primeiro o modelo Nelson-Siegel dinâmico, que estima a curva de juros usando um modelo paramétrico exponencial parcimonioso. É citada a referência criadora dessa abordagem, que é Nelson & Siegel (1987), passa-se pela apresentação da mais importante abordagem moderna que é a de Diebold & Li (2006), que é quem cria a abordagem dinâmica do modelo Nelson-Siegel, e que é inspiradora de diversas extensões. Muitas dessas extensões também são apresentadas aqui. Na parte empírica, usando dados da taxa a termo americana de Janeiro de 2004 a Março de 2015, estimam-se os modelos Nelson-Siegel dinâmico e de Svensson e comparam-se os resultados numa janela móvel de 12 meses e comparamos seus desempenhos com aqueles de um passeio aleatório. Em seguida, são apresentados os modelos ARCH e GARCH, citando as obras originais de Engle (1982) e Bolleslev (1986) respectivamente, discutem-se características destes modelos e apresentam-se algumas extensões ao modelo GARCH, incluindo aí alguns modelos GARCH multivariados. Passa-se então por uma rápida apresentação do conceito de VaR (Value at Risk), que será o objetivo da parte empírica. Nesta, usando dados de 02 de Janeiro de 2004 até 25 de Fevereiro de 2015, são feitas uma estimação da variância de um portfólio usando os modelos GARCH, GJR-GARCH e EGARCH e uma previsão do VaR do portfólio a partir da estimação feita anteriormente. Por fim, são apresentados alguns trabalhos que usam os dois modelos conjuntamente, ou seja, que consideram que as taxas ou os fatores que as podem explicam possuem variância variante no tempo.
Resumo:
The dissertation goal is to quantify the tail risk premium embedded into hedge funds' returns. Tail risk is the probability of extreme large losses. Although it is a rare event, asset pricing theory suggests that investors demand compensation for holding assets sensitive to extreme market downturns. By de nition, such events have a small likelihood to be represented in the sample, what poses a challenge to estimate the e ects of tail risk by means of traditional approaches such as VaR. The results show that it is not su cient to account for the tail risk stemming from equities markets. Active portfolio management employed by hedge funds demand a speci c measure to estimate and control tail risk. Our proposed factor lls that void inasmuch it presents explanatory power both over the time series as well as the cross-section of funds' returns.
Resumo:
When estimating policy parameters, also known as treatment effects, the assignment to treatment mechanism almost always causes endogeneity and thus bias many of these policy parameters estimates. Additionally, heterogeneity in program impacts is more likely to be the norm than the exception for most social programs. In situations where these issues are present, the Marginal Treatment Effect (MTE) parameter estimation makes use of an instrument to avoid assignment bias and simultaneously to account for heterogeneous effects throughout individuals. Although this parameter is point identified in the literature, the assumptions required for identification may be strong. Given that, we use weaker assumptions in order to partially identify the MTE, i.e. to stablish a methodology for MTE bounds estimation, implementing it computationally and showing results from Monte Carlo simulations. The partial identification we perfom requires the MTE to be a monotone function over the propensity score, which is a reasonable assumption on several economics' examples, and the simulation results shows it is possible to get informative even in restricted cases where point identification is lost. Additionally, in situations where estimated bounds are not informative and the traditional point identification is lost, we suggest a more generic method to point estimate MTE using the Moore-Penrose Pseudo-Invese Matrix, achieving better results than traditional methods.
Resumo:
Esta dissertação se propõe ao estudo de inferência usando estimação por método generalizado dos momentos (GMM) baseado no uso de instrumentos. A motivação para o estudo está no fato de que sob identificação fraca dos parâmetros, a inferência tradicional pode levar a resultados enganosos. Dessa forma, é feita uma revisão dos mais usuais testes para superar tal problema e uma apresentação dos arcabouços propostos por Moreira (2002) e Moreira & Moreira (2013), e Kleibergen (2005). Com isso, o trabalho concilia as estatísticas utilizadas por eles para realizar inferência e reescreve o teste score proposto em Kleibergen (2005) utilizando as estatísticas de Moreira & Moreira (2013), e é obtido usando a teoria assintótica em Newey & McFadden (1984) a estatística do teste score ótimo. Além disso, mostra-se a equivalência entre a abordagem por GMM e a que usa sistema de equações e verossimilhança para abordar o problema de identificação fraca.
Resumo:
O presente estudo busca quantificar os efeitos dos desembolsos do BNDES sobre os investimentos dos setores da indústria e serviços a partir de bases de dados do IBGE e do BNDES. Os resultados, obtidos de estimações em painéis de efeitos fixos, aleatórios e Arellano-Bond, indicam que o efeito marginal dos empréstimos do BNDES aos investimentos dos setores pode ser positivo, ainda que bastante reduzido. Além disso, os setores apresentam resultados bastante heterogêneos entre si em sua reação ao recebimento de crédito do BNDES. Ao passo que alguns setores apresentam elasticidades consistentemente positivas, outros apresentaram elasticidade negativa do investimento às concessões do BNDES. Tais resultados indicam que pode haver efeito crowding out como resultado de políticas de direcionamento a empresas de maior porte, em detrimento das firmas menores. Ainda, na estimação de funções de risco, em um dos resultados verificou-se que os setores que recebem recursos do BNDES possuem maior probabilidade de acessar o mercado de capitais.
Resumo:
Neste trabalho será apresentada a modelagem por regressão logística, com a finalidade de prever qual seria a inadimplência dos clientes que compõem o portfólio de uma grande instituição financeira do país. Sendo assim, será explorada a ideia de usar o conceito de provisionamento pura e simplesmente, através da estimação de uma probabilidade de default dado por um ou mais modelos estatísticos que serão construídos no decorrer do trabalho, conforme incentiva o comitê de Basileia. Um dos modelos será feito a partir de uma separação prévia de público através de clusters e a outra técnica a ser explorada será a criação de um modelo sem nenhuma separação. O objetivo será a comparação entre as duas métricas de classificação de risco e verificar os trade-off entre elas e os impactos de variáveis macroeconômicas nestes modelos.
Resumo:
O presente trabalho busca identificar a ocorrência, duração e probabilidades de transição de diferentes regimes na condução da política monetária no Brasil a partir da implantação do sistema de metas de inflação em 1999. A estimação da função de reação do Banco Central do Brasil é realizada a partir de uma Regra de Taylor forward looking para uma economia aberta, onde utilizamos a metodologia Markov Regime Switching para caracterizar de forma endógena os diferentes regimes de política monetária. Os resultados obtidos indicam a ocorrência de três regimes distintos de política monetária a partir da implantação do sistema de metas de inflação no Brasil. O primeiro regime ocorre durante 21% do período estudado e se caracteriza pela não aderência ao princípio de Taylor e discricionariedade da autoridade monetária, que reage demonstrando maior sensibilidade ao hiato do produto. O segundo regime é o de maior duração, ocorre durante 67% do período estudado, e se caracteriza pela aderência ao princípio de Taylor e equilíbrio nos pesos atribuídos pelo Banco Central tanto ao hiato do produto como ao desvio das expectativas de inflação com relação à meta. Já o terceiro regime ocorre durante 12% do período estudado e se caracteriza não somente pela aderência ao princípio de Taylor, como também por uma maior aversão ao desvio das expectativas de inflação com relação à meta.
Resumo:
O presente trabalho trata da importância do modelamento da dinâmica do livro de ordens visando a compreensão dessa microestrutura de mercado. Para tanto, objetiva aplicar as técnicas de modelamento do livro de ofertas utilizando o modelo estocástico proposto por Cont, Stoikov e Talreja (2010) ao mercado acionário brasileiro. Uma vez aplicado o modelo, analisamos os resultados obtidos sob a ótica de outros estudos empíricos, como Bouchaud et al. (2002). Após a estimação e análise dos resultados foram realizadas simulações para constatar se os parâmetros encontrados refletem a dinâmica do mercado local, para diferentes cenários de normalização do tamanho das ordens. Por fim, com a análise dos resultados encontrados, foi possível concluir, com algumas ressalvas, que o modelo proposto é válido para o mercado de ações brasileiro, assim como é apresentado o impacto da liquidez dos ativos na comparação aos parâmetros encontrados em outros mercados internacionais.
Resumo:
Este trabalho aborda os fundamentos da relação entre a medida neutra a risco e o mundo físico, apresentando algumas metodologias conhecidas de transformação da medida de probabilidade associada a cada um destes dois contextos. Mostramos como titulos de crédito podem ser utilizados para a estimação da probabilidade de inadimplência de seus emissores, explicitando os motivos que fazem com que ela não reflita, em um primeiro momento, os dados observados historicamente. Utilizando dados de empresas brasileiras, estimamos a razão entre a probabilidade de default neutra a risco e a probabilidade de default real. Tais resultados, quando comparados com outros trabalhos similares, sugerem que a razão do prêmio de risco de empresas brasileiras possui valor maior do que a de empresas americanas.
Resumo:
Brazilian public policy entered in the so-called new social federalism through its conditional cash transfers. States and municipalities can operate together through the nationwide platform of the Bolsa Familia Program (BFP), complementing federal actions with local innovations. The state and the city of Rio de Janeiro have created programs named, respectively, Renda Melhor (RM) and Família Carioca (FC). These programs make use of the operational structure of the BFP, which facilitates locating beneficiaries, issuing cards, synchronizing payment dates and access passwords and introducing new conditionalities. The payment system of the two programs complements the estimated permanent household income up to the poverty line established, giving more to those who have less. Similar income complementation system was subsequently adopted in the BFP and the Chilean Ingreso Ético Familiar, which also follow the principle of estimation of income used in the FC and in the RM. Instead of using the declared income, the value of the Rio cash transfers are set using the extensive collection of information obtained from the Single Registry of Social Programs (Cadastro Único): physical configuration of housing, access to public services, education and work conditions for all family members, presence of vulnerable groups, disabilities, pregnant or lactating women, children and benefits from other official transfers such as the BFP. With this multitude of assets and limitations, the permanent income of each individual is estimated. The basic benefit is defined by the poverty gap and priority is given to the poorest. These subnational programs use international benchmarks as a neutral ground between different government levels and mandates. Their poverty line is the highest of the first millennium goal of the United Nations (UN): US$ 2 per person per day adjusted for the cost of living. The other poverty line of the UN, US$ 1.25, was implicitly adopted as the national extreme poverty line in 2011. The exchange of methodologies between federal entities has happened both ways. The FC began with the 575,000 individuals living in the city of Rio de Janeiro who were on the payroll of the BFP. Its system of impact evaluation benefited from bi-monthly standardized examinations. In the educational conditionalities, the two programs reward students' progress, a potential advantage for those who most need to advance. The municipal program requires greater school attendance than that of the BFP and the presence of students’ parents at the bimonthly meetings held on Saturdays. Students must achieve a grade of 8 or improve at least 20% in each exam to receive a bi-monthly premium of R$50. In early childhood, priority is given to the poor children in the program Single Administrative Register (CadÚnico) to enroll in kindergarten, preschools and complementary activities. The state program reaches more than one million people with a payment system similar to the municipal one. Moreover, it innovates in that it transfers awards given to high school students to savings accounts. The prize increases and is paid to the student, who can withdraw up to 30% annually. The total can reach R$3,800 per low-income student. The State and the city rewarded already education professionals according to student performance, now completing the chain of demand incentives on poor students and their parents. Increased performance is higher among beneficiaries and the presence of their guardians at meetings is twice compared to non beneficiaries; The Houston program, also focuses on aligning the incentives to teachers, parents and students. In general, the plan is to explore strategic complementarities, where the whole is greater than the sum of its parts. The objective is to stimulate, through targets and incentives, synergies between social actors (teachers, parents, students), between areas (education, assistance, work) and different levels of government. The cited programs sum their efforts and divide labor so as to multiply interactions and make a difference in the lives of the poor.
Resumo:
Neste trabalho, propomos uma especificação de modelo econométrico na forma reduzida, estimado por mínimos quadrados ordinários (MQO) e baseado em variáveis macroeconômicas, com o objetivo de explicar os retornos trimestrais do índice de ações IBRX-100, entre 2001 e 2015. Testamos ainda a eficiência preditiva do modelo e concluímos que o erro de previsão estimado em janela móvel, com re-estimação de MQO a cada rodada, e utilização de VAR auxiliar para projeção dos regressores, é significativamente inferior ao erro de previsão associado à hipótese de Random Walk para o horizonte de previsão de um trimestre a frente.
Resumo:
Sendo a literatura do pass-through cambial sobre os preços domésticos extenso e com diferentes metodologias de cálculo, esta dissertação buscou explorar se a direção da variação da taxa de câmbio, ou seja, se apreciações ou depreciações tem diferentes impactos sobre a inflação. O objetivo é avaliar se o repasse cambial para o índice de preços ao consumidor é assimétrico. A metodologia utilizado foi através da estimação de uma Curva de Phillips com Limiar (Threshold) para o IPCA agregado e desagregado, sendo avaliado o período recente de 2001 a 2014. Os resultados apresentaram evidências de assimetria no repasse para os preços para a inflação agregada, porém não significante para a maioria dos núcleos analisados.
Resumo:
O estudo teve como objetivo avaliar a capacidade preditiva dos modelos de estimação do risco de mercado em momentos de crises financeiras. Para isso, foram testados modelos de estimação do Value-at-Risk (VaR) aplicados aos retornos diários de carteiras compostas por índices de ações de países desenvolvidos e emergentes. Foram testados o modelo VaR de Simulação Histórica, modelos ARCH multivariados (Bekk, Vech e CCC), Redes Neurais Artificiais e funções Cópulas. A amostra de dados refere-se aos períodos de duas crises financeiras internacionais, Crise Asiática, de 1997, e Crise do Sub Prime dos EUA, de 2008. Os resultados apontaram que os modelos ARCH multivariados (Vech e Bekk) e Cópula - Clayton tiveram desempenho semelhantes, com bons ajustes em 100% dos testes. Diferentemente do que era esperado, não foi possível perceber diferenças significativas entre os ajustes para países desenvolvidos e emergentes e os momentos de crise e normal.
Resumo:
Esse trabalho busca analisar empiricamente a persistência inflacionária de um grupo de dez países da América do Sul e verificar se a persistência ficou estável durante o período analisado e se persistência inflacionária é mais alta em países que apresentaram alta inflação no seu passado recente. Os dados são trimestrais, tendo início no primeiro trimestre de 2000, e contém 60 observações. Os resultados do trabalho foram obtidos por meio da estimação dos seguintes modelos: modelo com defasagens de inflação com e sem o hiato do PIB; curva de Phillips Novo-Keynesiana com taxa de câmbio; e a forma reduzida do modelo estrutural de Blanchard e Gali (2005), que incorpora a rigidez de salários. Os resultados mostraram que a persistência inflacionária ficou estável durante o período analisado e que seu nível ficou abaixo de 1, na média, no grupo de países que apresentaram alta inflação no passado recente e no grupo de países que não apresentaram. Além disso, os resultados mostraram que, na amostra selecionada, a persistência inflacionária é mais alta nos países que apresentaram alta inflação no seu passado recente. Também foi verificado que, com 5% de significância, não é possível afirmar que a persistência inflacionária de todos os países que apresentaram alta inflação no passado recente seja diferente das economias que não apresentaram.
Resumo:
A tese é constituída por três artigos: “Regulação Ótima de Pescarias com Imperfeito Enforcement dos Direitos de Propriedade”, “Estimação de um Modelo Generalizado de Pesca” e “Fatores Condicionantes da Reincidência Criminal no Chile”. No Capitulo 1, num contexto de enforcement imperfeito e custoso dos direitos de propriedade, é desenvolvido um modelo bioeconômico para determinar a captura ótima na exploração de recursos hidrobiológicos. Os resultados mostram que: (i) o stock do recurso em estado estacionário é menor quando o enforcement é imperfeito e custoso que quando é perfeito e sem custo, (ii) se o stock do recurso em estado estacionário com enforcement perfeito e sem custo é menor ao de máximo rendimento sustentável, então a quota de captura ótima com enforcement imperfeito e custoso é menor à respetiva quota quando o enforcement é perfeito e sem custo, e (iii) o stock do recurso em estado estacionário com enforcement imperfeito e custoso é maior ao stock do recurso quando a pescaria é de livre acesso. Contudo a gestão ótima dos recursos pesqueiros requer o conhecimento dos seus parâmetros bioeconômicos, porém implementar estudos para obter informação do stock do recurso é muito custoso e está sujeito a erros de mensuração. Assim, no Capitulo 2 são estimados os parâmetros bioeconômicos para a captura de anchoveta peruana. A metodologia baseia-se em Zhang e Smith (2011). Os parâmetros bioeconômicos são obtidos a traves de uma estimação econométrica em dois estágios utilizando dados microeconômicos associadas às embarcações que contam com permissão para capturar anchoveta. O método do bootstrap é utilizado para corrigir os erros padrão das estimativas obtidas pela metodologia em dois estágios. Os parâmetros estimados são utilizados para o stock ótimo e a captura ótima de anchoveta em estado estacionário. Assim mesmo, comparar-se o stock ótimo com o stock observado conclui-se que a pescaria da anchoveta peruana tem estado continuamente sujeita â sobre-exploração. Por último o Capitulo 3 é um esforço por estudar os fatores de reincidência criminal no Chile, uma área de pesquisa que tem sido escassamente explorada em América Latina, embora da sua importância na agenda pública e dada a crença da sociedade chilena que a criminalidade é explicada fundamentalmente por criminais reincidentes. A aproximação escolhida no presente estudo analisa a reincidência a partir da imputação. Para estudar os determinantes a reincidência, utiliza-se um modelo econométrico binário, o modelo Probit, que permite analisar como a idade, sexo, e o tipo de delitos cometidos, afetam a probabilidade de reincidência. Observa-se que na maior dos casos os estimadores apresentam o sinal esperado.