215 resultados para Regressão descontinuada

em Repositório digital da Fundação Getúlio Vargas - FGV


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este trabalho procura estudar a relação causal entre vitória nas eleições estaduais para deputado e contratos adquiridos por empresas doadoras de campanha. A amostra utilizada foi um conjunto de dados das eleições de 2006 para deputado estadual de oito estados brasileiros e os contratos estaduais recebidos pelas empresas doadoras. Para identificar o efeito foi aplicado o método de regressão descontinuada em eleições decididas por pequena margem de votos. Os resultados mostraram que a relação entre vitória e contratos existe e é significativa a 1%. É esperado que uma vitória eleitoral retorne R$ 1.095.617 sob a forma de contratos estaduais durante os mandatos dos candidatos eleitos. Esse valor é expressivo dado que o valor médio de doações é de R$ 13.568. Além disso, o efeito foi encontrado para candidatos pertencentes ao partido do governo e da coalizão, sugerindo que parte dos gastos diretos do governo é destinada para montagem de coalizão na Assembléia Legislativa Estadual. Os resultados se mantêm observando o efeito por ramo de atividade das empresas doadoras e quando o intervalo de margem percentual de votos é reduzido para 25%.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo do presente estudo é avaliar a existência de quebra estrutural no Value-at-Risk (VaR) das empresas que negociam suas ações na bolsa de valores de Nova Iorque (NYSE). O evento que justi ca a suspeita de mudança estrutural é a lei de governança corporativa conhecida como Sarbanes-Oxley Act (ou simplesmente SOX), a mais profunda reforma implementada no sistema de legislação nanceira dos Estados Unidos desde 1934. A metodologia empregada é baseada em um teste de quebra estrutural endógeno para modelos de regressão quantílica. A amostra foi composta de 176 companhias com registro ativo na NYSE e foi analisado o VaR de 1%, 5% e 10% de cada uma delas. Os resultados obtidos apontam uma ligação da SOX com o ponto de quebra estrutural mais notável nos VaRs de 10% e 5%, tomando-se como base a concentração das quebras no período de um ano após a implementação da SOX, a partir do teste de Qu(2007). Utilizando o mesmo critério para o VaR de 1%, a relação encontrada não foi tão forte quanto nos outros dois casos, possivelmente pelo fato de que para uma exposição ao risco tão extrema, fatores mais especí cos relacionados à companhia devem ter maior importância do que as informações gerais sobre o mercado e a economia, incluídas na especi cação do VaR. Encontrou-se ainda uma forte relação entre certas características como tamanho, liquidez e representação no grupo industrial e o impacto da SOX no VaR.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The objective of this dissertation is to analyze the socio-spatial distribution of the of denunciation rate. For this, it is studied association between the denunciations to Disque-Denúncia with the space position of the neighborhoods and the social characteristics in terms of the social context which can take to a greater or minor participation. The analysis will be centered in the relation between the socio-spatial variability of denunciations for 100.000 inhabitants and differences by the models of space regression and geographical representation highlighting the importance of the characteristics of the neighborhoods that generate the social context. The social configuration of a neighborhood, its space localization and its violence rate are the factors associates to the denunciation variability, which can modify its level. In relation to the space dependence of the neighborhoods, it is inferred that they are not independent. The denunciation rate of the neighborhoods is interdependent with close neighborhoods, because of the space externality. In relation to the social index of the neighborhoods, the result that we find is that the association of the denunciation rate with the percentage of elderly, the density and the average of studies of the neighborhoods exists, in other words, the levels of those are related with the levels of the denunciation rate.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Em economias com regimes de metas de inflação é comum que Bancos Centrais intervenham para reduzir os níveis de volatilidade do dólar, sendo estas intervenções mais comuns em países não desenvolvidos. No caso do Brasil, estas intervenções acontecem diretamente no mercado à vista, via mercado de derivativos (através de swaps cambiais) ou ainda com operações a termo, linhas de liquidez e via empréstimos. Neste trabalho mantemos o foco nas intervenções no mercado à vista e de derivativos pois estas representam o maior volume financeiro relacionado à este tipo de atuação oficial. Existem diversos trabalhos que avaliam o impacto das intervenções e seus graus de sucesso ou fracasso mas relativamente poucos que abordam o que levaria o Banco Central do Brasil (BCB) a intervir no mercado. Tentamos preencher esta lacuna avaliando as variáveis que podem se relacionar às intervenções do BCB no mercado de câmbio e adicionalmente verificando se essas variáveis se relacionam diferentemente com as intervenções de venda e compra de dólares. Para tal, além de utilizarmos regressões logísticas, como na maioria dos trabalhos sobre o tema, empregamos também a técnica de redes neurais, até onde sabemos inédita para o assunto. O período de estudo vai de 2005 a 2012, onde o BCB interveio no mercado de câmbio sob demanda e não de forma continuada por longos períodos de tempo, como nos anos mais recentes. Os resultados indicam que algumas variáveis são mais relevantes para o processo de intervenção vendendo ou comprando dólares, com destaque para a volatilidade implícita do câmbio nas intervenções que envolvem venda de dólares, resultado este alinhado com outros trabalhos sobre o tema.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho minera as informações coletadas no processo de vestibular entre 2009 e 2012 para o curso de graduação de administração de empresas da FGV-EAESP, para estimar classificadores capazes de calcular a probabilidade de um novo aluno ter bom desempenho. O processo de KDD (Knowledge Discovery in Database) desenvolvido por Fayyad et al. (1996a) é a base da metodologia adotada e os classificadores serão estimados utilizando duas ferramentas matemáticas. A primeira é a regressão logística, muito usada por instituições financeiras para avaliar se um cliente será capaz de honrar com seus pagamentos e a segunda é a rede Bayesiana, proveniente do campo de inteligência artificial. Este estudo mostre que os dois modelos possuem o mesmo poder discriminatório, gerando resultados semelhantes. Além disso, as informações que influenciam a probabilidade de o aluno ter bom desempenho são a sua idade no ano de ingresso, a quantidade de vezes que ele prestou vestibular da FGV/EAESP antes de ser aprovado, a região do Brasil de onde é proveniente e as notas das provas de matemática fase 01 e fase 02, inglês, ciências humanas e redação. Aparentemente o grau de formação dos pais e o grau de decisão do aluno em estudar na FGV/EAESP não influenciam nessa probabilidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem como objetivo verificar se os brasileiros que moram numa unidade federativa diferente da unidade em que nasceram - os migrantes - formam um grupo positivamente selecionado (isto È, um grupo que seja, em mÈdia, mais apto, motivado, empreendedor, agressivo, ambicioso do que outro grupo) da populaÁ„o brasileira. Subsidiados pela literatura existente sobre o assunto e utilizando a Pesquisa Nacional por Amostra de DomicÌlios (PNAD) de 1999, conseguimos mostrar que os migrantes ganham, em mÈdia, mais do que os n„o-migrantes, no Brasil, sendo que esse resultado se mantÈm quando fazemos uma an·lise bivariada (controlando por estado de nascimento, estado de residÍncia, idade ou educaÁ„o) e quando fazemos uma an·lise multivariada, atravÈs de uma regress„o m˙ltipla (que controla conjuntamente uma sÈrie de vari·veis importantes na determinaÁ„o da renda do trabalho). A partir desse resultado, concluimos que, de fato, os migrantes, no Brasil, constituem um grupo positivamente selecionado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A partir da bastante difundida metodologia de Cointegração e Características (Features), propõe-se a execução dos testes de Johansen e regressão auxiliar para verificar a existência de Características Comuns de primeira e segunda ordem entre índices e retornos de bolsas latinoamericanas. A existência de Características Comuns em séries financeiras é de particular importância por implicar em previsibilidade, derivando relações que podem ter aplicações em estratégias de transação e hedge, por exemplo. Os resultados mostram que a ocorrência de Características Comuns é restrita. O primeiro teste indica ocorrência de relações de longo prazo em uma região envolvendo a Argentina. No curto prazo, foram identificados Ciclos Comuns entre Argentina, Brasil, Chile e México. As relações encontradas neste caso servem como indicadores de movimentos pró-cíclicos na resposta a notícias entre estes países. Nos testes de segunda ordem, nenhuma Característica Comum foi identificada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é analisar o impacto da migração interestadual sobre a distribuição de renda regional brasileira. Inicialmente, estima-se uma regressão minnceriana para o logaritmo do salário contra diversas variáveis de controle mais uma dummy de migração, usando dados da Pesquina Nacional de Amostra de Domicílios (PNAD). Em seguida, são construídos contrafactuais em que não há migração entre os estados brasileiros. A partir dessa análise contrafactual, observa-se que a migração provoca um aumento das rendas médias dos estados (com exceção de São Paulo e Rio de Janeiro) e da renda média do país. A renda média dos estados do Nordeste como proporção da dos estados do Sudeste aumenta. Com isso, observamos uma diminuição da dispersão de renda regional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta dissertação realizou-se um experimento de Monte Carlo para re- velar algumas características das distribuições em amostras finitas dos estimadores Backfitting (B) e de Integração Marginal(MI) para uma regressão aditiva bivariada. Está-se particularmente interessado em fornecer alguma evidência de como os diferentes métodos de seleção da janela hn, tais co- mo os métodos plug-in, impactam as propriedades em pequenas amostras dos estimadores. Está-se interessado, também, em fornecer evidência do comportamento de diferentes estimadores de hn relativamente a seqüência ótima de hn que minimiza uma função perda escolhida. O impacto de ignorar a dependência entre os regressores na estimação da janela é tam- bém investigado. Esta é uma prática comum e deve ter impacto sobre o desempenho dos estimadores. Além disso, não há nenhuma rotina atual- mente disponível nos pacotes estatísticos/econométricos para a estimação de regressões aditivas via os métodos de Backfitting e Integração Marginal. É um dos objetivos a criação de rotinas em Gauss para a implementação prática destes estimadores. Por fim, diferentemente do que ocorre atual- mente, quando a utilização dos estimadores-B e MI é feita de maneira completamente ad-hoc, há o objetivo de fornecer a usuários informação que permita uma escolha mais objetiva de qual estimador usar quando se está trabalhando com uma amostra finita.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Essa tese se propõe fazer uma comparação entre duas técnicas alternativas para estudo de impactos marginais de variáveis sócio-econômicas sobre as taxas de crescimento per-capita de grupos de países durante período de 1965 1985: regressão em sistemas de equações com dados em seções transversais, usada por Barro Sala-i-Martin (1995), entre outros, e a regressão em painel com coeficientes individuais. Tentaremos mostrar que os resultados associados certas variáveis são bastante diferentes procuraremos entender algumas causas dessas diferenças. Além disso, estaremos preocupados em avaliar como os resultados são afetados ao alterarmos conjunto de países estudado, em particular quando tomamos grupos de países com uma série de características semelhantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na utilização de variados tipos de financiamento, a empresa necessita, primariamente, da análise do custo do capital - custo básico para remuneração dos recursos próprios e de terceiros que compõem a estrutura de capital - o qual deve ser a taxa referencial para haver retorno do investimento e geração_ de valor, emergindo, por conseguinte, a discussão acerca da repercussão do nível de endividamento, e, conseqüentemente, do custo de capital sobre o valor da empresa. Nesse contexto, existem modelos que consideram o endividamento irrelevante no valor da empresa, como: análise pelo Lucro Operacional ou de Modiglianni e Miller sem Imposto de Renda. Em outro extremo, há abordagens que o têm como função direta para o valor, como a do Lucro Líquido e de Modigliani e Miller com imposto de renda. Entre essas posições antagônicas podem ser citadas a posição Tradicional e do Custo de Dificuldades Financeiras, que admitem a influência do endividamento após determinado nível de alavancagem. A Teoria da Informação Assimétrica, por sua vez, sustenta ser a sinalização enviada com mudanças na estrutura de capital fator de influência no valor da empresa. No modelo de avaliação por Opções, argumenta-se que, dentro de determinadas hipóteses, a riqueza dos acionistas é incrementada por uma alavancagem financeira mais elevada. A avaliação em situação de incerteza para a empresa é refletida no modelo que utiliza o Capital Asset Price Model, onde argumenta-se que um aumento no endividamento eleva o beta e, conseqüentemente, o retorno esperado. Por último, há a análise baseada em fluxos de caixa onde o valor presente da empresa é adicionado ao valor presente líquido dos efeitos intrínsecos ao financiamento. O cálculo do valor da empresa também pode ser feito através do fluxo de caixa do acionista descontado pela taxa de remuneração do capital próprio ou fluxo operacional descontado pelo custo médio ponderado do capital, subtraindo o valor do endividamento. Este trabalho se propôs a analisar, durante o período 1994-1998, a relação do endividamento com o custo médio ponderado do capital e com valor de mercado de oito empresas, componentes de amostra representativa do setor siderúrgico brasileiro, e também a estimar o valor do capital próprio, através do modelo de desconto do fluxo de caixa operacional pelo custo médio ponderado do capital, verificando a aderência dessa avaliação, através de comparação com o valor de mercado observado. Pela análise dos resultados observamos, uma relação inversa entre custo médio do capital e endividamento. No que se refere à avaliação da empresa, o modelo apresentado de desconto pelo custo médio ponderado do capital, revelou-se de modo geral, satisfatório, com o valor estimado explicando 68% do valor de mercado, na análise da regressão; sendo que as maiores distorções foram verificadas nas empresas que tiveram grau de alavancagem elevado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A motivação deste trabalho é relacionar a teoria da estatística com uma clássica aplicação prática na indústria, mais especificamente no mercado financeiro brasileiro. Com o avanço de hardware, sistemas de suporte à decisão se tornaram viáveis e desempenham hoje papel fundamental em muitas áreas de interesse como logística, gestão de carteiras de ativos, risco de mercado e risco de crédito. O presente trabalho tem como objetivos principais propor uma metodologia de construção de modelos de escoragem de crédito e mostrar uma aplicação prática em operações de empréstimo pessoal com pagamento em cheques. A parte empírica utiliza dados reais de instituição financeira e duas metodologias estatísticas, análise de regressão linear múltipla e análise de regressão probit. São comparados os resultados obtidos a partir da aplicação de modelos de escoragem de crédito desenvolvidos com cada metodologia com os resultados obtidos sem a utilização de modelos. Assim, demonstra-se o incremento de resultado da utilização de modelos de escoragem e conclui-se se há ou não diferenças significativas entre a utilização de cada metodologia. A metodologia de construção de modelos de escoragem é composta basicamente por duas etapas, definição das relações e da equação para cálculo do escore e a definição do ponto de corte. A primeira consiste em uma busca por relações entre as variáveis cadastrais e de comportamento do cliente, variáveis da operação e o risco de crédito caracterizado pela inadimplência. A segunda indica o ponto em que o risco deixa de ser interessante e o resultado esperado da operação passa a ser negativo. Ambas as etapas são descritas com detalhes e exemplificadas no caso de empréstimos pessoais no Brasil. A comparação entre as duas metodologias, regressão linear e regressão probit, realizada no caso de empréstimos pessoais, considerou dois aspectos principais dos modelos desenvolvidos, a performance estatística medida pelo indicador K-S e o resultado incremental gerado pela aplicação do modelo. Foram obtidos resultados similares com ambas as metodologias, o que leva à conclusão de que a discussão de qual das duas metodologias utilizar é secundária e que se deve tratar a gestão do modelo com maior profundidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com base na literatura internacional, testa-se o desempenho de alguns Drivers de Valor comumente utilizados para avaliação de empresas pelos práticos em finanças através de modelos de regressão simples do tipo cross-section que estimam os Múltiplos de Mercado (?'s dos modelos). Utilizando dados de empresas listadas na Bolsa de Valores de São Paulo-Bovespa, diagnostica-se o comportamento dos diversos múltiplos no decorrer do período entre 1994-2004, atentando-se também para as particularidades das atividades desempenhadas pelas empresas da amostra (e seus possíveis impactos no desempenho de cada Driver de Valor) através de uma subseqüente análise com a separação das empresas da amostra em setores. Extrapolando os padrões de avaliação por múltiplos simples usados pelos analistas de empresas das principais instituições financeiras presentes no Brasil, verifica-se que a introdução de intercepto na formulação tradicional não oferece resultados satisfatórios na redução dos erros de apreçamento. Os resultados encontrados podem não ser genericamente representativos, dada a limitada disponibilidade de informações e as restrições impostas na obtenção da base de dados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem como objetivo mostrar que o “quebra-cabeça” é na verdade um artefato estatístico, produzido pelo fato de que a taxa de câmbio real de equilíbrio de longo prazo não é constante, mas varia ao longo do tempo. A abordagem que será usada para demonstrar este fato concilia a pesquisa acadêmica preocupada em testar a hipótese da paridade de poder de compra com a pesquisa orientada para a política econômica que procura estimar a taxa de câmbio real de equilíbrio de longo prazo.4 Uma conseqüência desta abordagem é que ela não implica que a não rejeição da hipótese de raiz unitária para a taxa de câmbio real seja equivalente à rejeição da hipótese de paridade do poder de compra, pois a taxa de câmbio real pode ser uma variável não estacionária e co-integrada com a taxa de câmbio real de longo prazo.5 O trabalho está organizado do seguinte modo: a Seção 2 apresenta uma resenha sucinta de alguns modelos largamente usados na literatura de macroeconomia aberta que especificam as variáveis que afetam a taxa de câmbio real de equilíbrio de longo prazo; a Seção 3 calcula o viés do estimador de mínimos quadrados ordinário da regressão (1) quando a taxa de câmbio real de equilíbrio de longo prazo não é constante; a Seção 4 analisa várias hipóteses quanto ao processo estocástico da taxa de câmbio real de equilíbrio de longo prazo e deduz o processo correspondente à taxa de câmbio real de curto prazo; a Seção 5 conclui o trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Using data from the United States, Japan, Germany , United Kingdom and France, Sims (1992) found that positive innovations to shortterm interest rates led to sharp, persistent increases in the price level. The result was conÖrmed by other authors and, as a consequence of its non-expectable nature, was given the name "price puzzle" by Eichenbaum (1992). In this paper I investigate the existence of a price puzzle in Brazil using the same type of estimation and benchmark identiÖcation scheme employed by Christiano et al. (2000). In a methodological improvement over these studies, I qualify the results with the construction of bias-corrected bootstrap conÖdence intervals. Even though the data does show the existence of a statistically signiÖcant price puzzle in Brazil, it lasts for only one quarter and is quantitatively immaterial