185 resultados para Estimação TMDA


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desse trabalho é medir e analisar a produtividade da indústria extrativa brasileira como um todo e seus subsetores. Primeiramente foi feita a estimação da produtividade multifatorial utilizando o método clássico proposto por Robert Solow de onde se verificou uma queda na produtividade do setor no período entre 1997 e 2009. Posteriormente foi feita uma nova estimação dessa produtividade que corrige as mudanças na qualidade dos minerais extraídos. Observou-se que a queda na produtividade, no período analisado, foi ainda mais acentuada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Utilizando uma adaptação do modelo de Telles e Mussolini (2014), o presente trabalho busca discutir as caracterizações da matriz tributária, discutindo como as variações na matriz tributária podem impactar na política fiscal. Discute-se com base na diferenciação dos impostos em cinco grupos, a saber: impostos sobre salários, impostos sobre investimentos, impostos sobre consumo, impostos sobre renda e riqueza, e impostos sobre comércio internacional, a partir dos quais argumenta-se quais seus impactos para a política fiscal, para a interação das variáveis econômicas e a evolução destas variáveis, assim como a relação entre a preferência por uma determinada estrutura tributária e o endividamento de um país. Após a discussão teórica, faz-se uma análise descritiva da evolução destas variáveis tributárias para cada categoria de tributo, relacionando a sua evolução no tempo para um grupo de 64 países, tomados a partir do trabalho de Telles e Mussolini (2014), assim como relacionando a sua evolução intertemporal. Por fim, faz-se uma análise da estrutura tributária destes países, discutindo, na análise dos dados em painel, os resultados para as estimativas em modelos de efeitos fixos e efeitos aleatórios, os resultados da estimação pelo modelo Arellano-Bond, e utilizando-se a abordagem instrumental pelo Método Generalizado dos Momentos, onde se conclui que a taxação sobre a riqueza e a taxação sobre o comércio internacional com fins de financiar o excesso de gastos do governo impacta de forma negativa na trajetória de crescimento, entre outros resultados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta metodologia de mensuração e gestão de risco para empresas do ramo frigorífico. A ferramenta utilizada é conhecida como Earnings at Risk (EaR), e se adota uma visão top-down, que mostra a variação do resultado da empresa de acordo com variáveis explicativas de mercado e variáveis idiossincráticas. Através da eliminação de multicolinearidade entre essas variáveis com o uso da métrica de Análise de Componentes Principais (ACP), busca-se analisar como o novo EaR se comportaria frente ao enfoque usual, construído com um modelo de regressão linear múltipla. Variáveis dummy fazem parte do modelo de estimação do resultado futuro das empresas frigoríficas, relacionadas à ocorrência ou não de doenças que afetam o gado bovino, e à retirada de embargos econômicos de países importadores durante o período de análise. Ao fim do trabalho é verificado que as variáveis dummy não possuem relevância para a determinação de EaR, e que não se chega a conclusão de que o modelo de EaR com ACP se mostra melhor com menos variáveis, mantendo a mesma variância e significância estatística originais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este Trabalho se Dedica ao exercício empírico de gerar mais restrições ao modelo de apreçamento de ativos com séries temporais desenvolvido por Hansen e Singleton JPE 1983. As restrições vão, desde um simples aumento qualitativo nos ativos estudados até uma extensão teórica proposta a partir de um estimador consistente do fator estocástico de desconto. As estimativas encontradas para a aversão relativa ao risco do agente representativo estão dentro do esperado, na maioria dos casos, já que atingem valores já encontrados na literatura além do fato destes valores serem economicamente plausíveis. A extensão teórica proposta não atingiu resultados esperados, parecendo melhorar a estimação do sistema marginalmente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente dissertação tem como objetivo apresentar dois importantes modelos usados na análise de risco. Essa análise culmina em uma aplicação empírica para cada um deles. Apresenta-se primeiro o modelo Nelson-Siegel dinâmico, que estima a curva de juros usando um modelo paramétrico exponencial parcimonioso. É citada a referência criadora dessa abordagem, que é Nelson & Siegel (1987), passa-se pela apresentação da mais importante abordagem moderna que é a de Diebold & Li (2006), que é quem cria a abordagem dinâmica do modelo Nelson-Siegel, e que é inspiradora de diversas extensões. Muitas dessas extensões também são apresentadas aqui. Na parte empírica, usando dados da taxa a termo americana de Janeiro de 2004 a Março de 2015, estimam-se os modelos Nelson-Siegel dinâmico e de Svensson e comparam-se os resultados numa janela móvel de 12 meses e comparamos seus desempenhos com aqueles de um passeio aleatório. Em seguida, são apresentados os modelos ARCH e GARCH, citando as obras originais de Engle (1982) e Bolleslev (1986) respectivamente, discutem-se características destes modelos e apresentam-se algumas extensões ao modelo GARCH, incluindo aí alguns modelos GARCH multivariados. Passa-se então por uma rápida apresentação do conceito de VaR (Value at Risk), que será o objetivo da parte empírica. Nesta, usando dados de 02 de Janeiro de 2004 até 25 de Fevereiro de 2015, são feitas uma estimação da variância de um portfólio usando os modelos GARCH, GJR-GARCH e EGARCH e uma previsão do VaR do portfólio a partir da estimação feita anteriormente. Por fim, são apresentados alguns trabalhos que usam os dois modelos conjuntamente, ou seja, que consideram que as taxas ou os fatores que as podem explicam possuem variância variante no tempo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The dissertation goal is to quantify the tail risk premium embedded into hedge funds' returns. Tail risk is the probability of extreme large losses. Although it is a rare event, asset pricing theory suggests that investors demand compensation for holding assets sensitive to extreme market downturns. By de nition, such events have a small likelihood to be represented in the sample, what poses a challenge to estimate the e ects of tail risk by means of traditional approaches such as VaR. The results show that it is not su cient to account for the tail risk stemming from equities markets. Active portfolio management employed by hedge funds demand a speci c measure to estimate and control tail risk. Our proposed factor lls that void inasmuch it presents explanatory power both over the time series as well as the cross-section of funds' returns.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

When estimating policy parameters, also known as treatment effects, the assignment to treatment mechanism almost always causes endogeneity and thus bias many of these policy parameters estimates. Additionally, heterogeneity in program impacts is more likely to be the norm than the exception for most social programs. In situations where these issues are present, the Marginal Treatment Effect (MTE) parameter estimation makes use of an instrument to avoid assignment bias and simultaneously to account for heterogeneous effects throughout individuals. Although this parameter is point identified in the literature, the assumptions required for identification may be strong. Given that, we use weaker assumptions in order to partially identify the MTE, i.e. to stablish a methodology for MTE bounds estimation, implementing it computationally and showing results from Monte Carlo simulations. The partial identification we perfom requires the MTE to be a monotone function over the propensity score, which is a reasonable assumption on several economics' examples, and the simulation results shows it is possible to get informative even in restricted cases where point identification is lost. Additionally, in situations where estimated bounds are not informative and the traditional point identification is lost, we suggest a more generic method to point estimate MTE using the Moore-Penrose Pseudo-Invese Matrix, achieving better results than traditional methods.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação se propõe ao estudo de inferência usando estimação por método generalizado dos momentos (GMM) baseado no uso de instrumentos. A motivação para o estudo está no fato de que sob identificação fraca dos parâmetros, a inferência tradicional pode levar a resultados enganosos. Dessa forma, é feita uma revisão dos mais usuais testes para superar tal problema e uma apresentação dos arcabouços propostos por Moreira (2002) e Moreira & Moreira (2013), e Kleibergen (2005). Com isso, o trabalho concilia as estatísticas utilizadas por eles para realizar inferência e reescreve o teste score proposto em Kleibergen (2005) utilizando as estatísticas de Moreira & Moreira (2013), e é obtido usando a teoria assintótica em Newey & McFadden (1984) a estatística do teste score ótimo. Além disso, mostra-se a equivalência entre a abordagem por GMM e a que usa sistema de equações e verossimilhança para abordar o problema de identificação fraca.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo busca quantificar os efeitos dos desembolsos do BNDES sobre os investimentos dos setores da indústria e serviços a partir de bases de dados do IBGE e do BNDES. Os resultados, obtidos de estimações em painéis de efeitos fixos, aleatórios e Arellano-Bond, indicam que o efeito marginal dos empréstimos do BNDES aos investimentos dos setores pode ser positivo, ainda que bastante reduzido. Além disso, os setores apresentam resultados bastante heterogêneos entre si em sua reação ao recebimento de crédito do BNDES. Ao passo que alguns setores apresentam elasticidades consistentemente positivas, outros apresentaram elasticidade negativa do investimento às concessões do BNDES. Tais resultados indicam que pode haver efeito crowding out como resultado de políticas de direcionamento a empresas de maior porte, em detrimento das firmas menores. Ainda, na estimação de funções de risco, em um dos resultados verificou-se que os setores que recebem recursos do BNDES possuem maior probabilidade de acessar o mercado de capitais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho será apresentada a modelagem por regressão logística, com a finalidade de prever qual seria a inadimplência dos clientes que compõem o portfólio de uma grande instituição financeira do país. Sendo assim, será explorada a ideia de usar o conceito de provisionamento pura e simplesmente, através da estimação de uma probabilidade de default dado por um ou mais modelos estatísticos que serão construídos no decorrer do trabalho, conforme incentiva o comitê de Basileia. Um dos modelos será feito a partir de uma separação prévia de público através de clusters e a outra técnica a ser explorada será a criação de um modelo sem nenhuma separação. O objetivo será a comparação entre as duas métricas de classificação de risco e verificar os trade-off entre elas e os impactos de variáveis macroeconômicas nestes modelos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho busca identificar a ocorrência, duração e probabilidades de transição de diferentes regimes na condução da política monetária no Brasil a partir da implantação do sistema de metas de inflação em 1999. A estimação da função de reação do Banco Central do Brasil é realizada a partir de uma Regra de Taylor forward looking para uma economia aberta, onde utilizamos a metodologia Markov Regime Switching para caracterizar de forma endógena os diferentes regimes de política monetária. Os resultados obtidos indicam a ocorrência de três regimes distintos de política monetária a partir da implantação do sistema de metas de inflação no Brasil. O primeiro regime ocorre durante 21% do período estudado e se caracteriza pela não aderência ao princípio de Taylor e discricionariedade da autoridade monetária, que reage demonstrando maior sensibilidade ao hiato do produto. O segundo regime é o de maior duração, ocorre durante 67% do período estudado, e se caracteriza pela aderência ao princípio de Taylor e equilíbrio nos pesos atribuídos pelo Banco Central tanto ao hiato do produto como ao desvio das expectativas de inflação com relação à meta. Já o terceiro regime ocorre durante 12% do período estudado e se caracteriza não somente pela aderência ao princípio de Taylor, como também por uma maior aversão ao desvio das expectativas de inflação com relação à meta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho trata da importância do modelamento da dinâmica do livro de ordens visando a compreensão dessa microestrutura de mercado. Para tanto, objetiva aplicar as técnicas de modelamento do livro de ofertas utilizando o modelo estocástico proposto por Cont, Stoikov e Talreja (2010) ao mercado acionário brasileiro. Uma vez aplicado o modelo, analisamos os resultados obtidos sob a ótica de outros estudos empíricos, como Bouchaud et al. (2002). Após a estimação e análise dos resultados foram realizadas simulações para constatar se os parâmetros encontrados refletem a dinâmica do mercado local, para diferentes cenários de normalização do tamanho das ordens. Por fim, com a análise dos resultados encontrados, foi possível concluir, com algumas ressalvas, que o modelo proposto é válido para o mercado de ações brasileiro, assim como é apresentado o impacto da liquidez dos ativos na comparação aos parâmetros encontrados em outros mercados internacionais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho aborda os fundamentos da relação entre a medida neutra a risco e o mundo físico, apresentando algumas metodologias conhecidas de transformação da medida de probabilidade associada a cada um destes dois contextos. Mostramos como titulos de crédito podem ser utilizados para a estimação da probabilidade de inadimplência de seus emissores, explicitando os motivos que fazem com que ela não reflita, em um primeiro momento, os dados observados historicamente. Utilizando dados de empresas brasileiras, estimamos a razão entre a probabilidade de default neutra a risco e a probabilidade de default real. Tais resultados, quando comparados com outros trabalhos similares, sugerem que a razão do prêmio de risco de empresas brasileiras possui valor maior do que a de empresas americanas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Brazilian public policy entered in the so-called new social federalism through its conditional cash transfers. States and municipalities can operate together through the nationwide platform of the Bolsa Familia Program (BFP), complementing federal actions with local innovations. The state and the city of Rio de Janeiro have created programs named, respectively, Renda Melhor (RM) and Família Carioca (FC). These programs make use of the operational structure of the BFP, which facilitates locating beneficiaries, issuing cards, synchronizing payment dates and access passwords and introducing new conditionalities. The payment system of the two programs complements the estimated permanent household income up to the poverty line established, giving more to those who have less. Similar income complementation system was subsequently adopted in the BFP and the Chilean Ingreso Ético Familiar, which also follow the principle of estimation of income used in the FC and in the RM. Instead of using the declared income, the value of the Rio cash transfers are set using the extensive collection of information obtained from the Single Registry of Social Programs (Cadastro Único): physical configuration of housing, access to public services, education and work conditions for all family members, presence of vulnerable groups, disabilities, pregnant or lactating women, children and benefits from other official transfers such as the BFP. With this multitude of assets and limitations, the permanent income of each individual is estimated. The basic benefit is defined by the poverty gap and priority is given to the poorest. These subnational programs use international benchmarks as a neutral ground between different government levels and mandates. Their poverty line is the highest of the first millennium goal of the United Nations (UN): US$ 2 per person per day adjusted for the cost of living. The other poverty line of the UN, US$ 1.25, was implicitly adopted as the national extreme poverty line in 2011. The exchange of methodologies between federal entities has happened both ways. The FC began with the 575,000 individuals living in the city of Rio de Janeiro who were on the payroll of the BFP. Its system of impact evaluation benefited from bi-monthly standardized examinations. In the educational conditionalities, the two programs reward students' progress, a potential advantage for those who most need to advance. The municipal program requires greater school attendance than that of the BFP and the presence of students’ parents at the bimonthly meetings held on Saturdays. Students must achieve a grade of 8 or improve at least 20% in each exam to receive a bi-monthly premium of R$50. In early childhood, priority is given to the poor children in the program Single Administrative Register (CadÚnico) to enroll in kindergarten, preschools and complementary activities. The state program reaches more than one million people with a payment system similar to the municipal one. Moreover, it innovates in that it transfers awards given to high school students to savings accounts. The prize increases and is paid to the student, who can withdraw up to 30% annually. The total can reach R$3,800 per low-income student. The State and the city rewarded already education professionals according to student performance, now completing the chain of demand incentives on poor students and their parents. Increased performance is higher among beneficiaries and the presence of their guardians at meetings is twice compared to non beneficiaries; The Houston program, also focuses on aligning the incentives to teachers, parents and students. In general, the plan is to explore strategic complementarities, where the whole is greater than the sum of its parts. The objective is to stimulate, through targets and incentives, synergies between social actors (teachers, parents, students), between areas (education, assistance, work) and different levels of government. The cited programs sum their efforts and divide labor so as to multiply interactions and make a difference in the lives of the poor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho, propomos uma especificação de modelo econométrico na forma reduzida, estimado por mínimos quadrados ordinários (MQO) e baseado em variáveis macroeconômicas, com o objetivo de explicar os retornos trimestrais do índice de ações IBRX-100, entre 2001 e 2015. Testamos ainda a eficiência preditiva do modelo e concluímos que o erro de previsão estimado em janela móvel, com re-estimação de MQO a cada rodada, e utilização de VAR auxiliar para projeção dos regressores, é significativamente inferior ao erro de previsão associado à hipótese de Random Walk para o horizonte de previsão de um trimestre a frente.