19 resultados para Probit ordenado dinâmico
em Repositório digital da Fundação Getúlio Vargas - FGV
Resumo:
We estimate optimal target-ranges of capital structure controlling for a series of firmspecific characteristics and accounting for the serial correlation that arises from the dynamic component of the leverage choice. Then, we empirically examine if firms adjust their leverages toward the estimated optimal ranges. Our analysis suggests that the observed behavior of firms is consistent with the notion of range-adjustment.
Resumo:
Este Artigo Testa a Proposição da Teoria Econômica de que Propriedade Intelectual e Defesa da Concorrência são Políticas Complementares. um Modelo Probit Ordenado é Utilizado para Estimar os Efeitos Marginais do Uso e Qualidade do Enforcement dos Direitos de Propriedade Intelectual em uma Medida da Gravidade dos Problemas Relacionados À Concorrência. os Resultados Obtidos Reforçam a Noção de que as Políticas de Concorrência e Propriedade Intelectual não são Contraditórias.
Resumo:
A teoria tradicional de Tobin (1958) sugere que todos os investidores possuem o mesmo portfólio de ativos arriscados, chamado de portfólio de mercado. A proporção entre esse ativo arriscado e o livre de risco dentro de cada portfólio dependeria apenas do grau de aversão a risco de cada agente. No entanto, as imperfeições existentes no mercado de capitais, permitem que a heterogeneidade dos agentes econômicos influencie nas suas alocações de portfólio. Este trabalho avalia o efeito de características econômicas e sócio-demográficas dos investidores de fundos administrados pelo BNY Mellon Serviços Financeiros em sua inclinação a tomar posições em fundos agressivos. Através da análise do conjunto de resultados observados através de três diferentes modelos econométricos, concluiu-se que a evidência empírica para a realidade brasileira, vai, em boa parte, ao encontro da teoria econômica sobre a alocação ótima de portfólio.
Resumo:
Nos últimos anos o mercado de crédito brasileiro apresentou grande crescimento em termos de volume e modalidade de operações de crédito. Além disso, observou-se também o aumento da participação dos bancos nesse setor, principais intermediários financeiros da economia. Com isso, em um mercado em desenvolvimento, torna-se cada vez mais importante a correta avaliação e administração do risco financeiro envolvido nas operações: o risco de crédito. Nesse contexto, a classificação de rating surge como referência para investidores. No entanto, como o mercado bancário brasileiro ainda é pouco desenvolvido, apenas instituições de grande porte são classificados pelas agências de rating em funcionamento no país. Este trabalho tem como objetivo o desenvolvimento de uma metodologia de rating baseada no modelo ordered probit, que seja capaz de replicar o nível de rating de uma determinada agência, e assim conseguir estimar o nível de rating para aqueles bancos que não têm a referida classificação de rating
Resumo:
O objetivo deste trabalho é estudar os fatores que influenciam a qualidade de aprendizagem e a eficácia em grupos. Os grupos de trabalho são aqui considerados sistemas sociais complexos e o estudo aqui desenvolvido parte da premissa de que é na inter-relação de fatores estruturais, cognitivos e interpessoais que se pode explicar a qualidade da aprendizagem e o nível de eficácia de um grupo. Este trabalho enfatiza a importância de se utilizar raciocínio sistêmico para o entendimento de sistemas complexos e constrói um modelo conceitual de Dinâmica de Sistemas, partindo de uma ampla revisão da literatura – de teorias de aprendizagem individual, em grupos e organizacional, de teorias da eficácia e de teorias sobre grupos – e de três estudos de caso. Ao final do trabalho, um modelo genérico qualitativo é oferecido aos interessados em uma análise sistêmica das complexidades que envolvem o processo de aprendizagem e a eficácia em grupos de trabalho.
Resumo:
Excessive labor turnover may be considered, to a great extent, an undesirable feature of a given economy. This follows from considerations such as underinvestment in human capital by firms. Understanding the determinants and the evolution of turnover in a particular labor market is therefore of paramount importance, including policy considerations. The present paper proposes an econometric analysis of turnover in the Brazilian labor market, based on a partial observability bivariate probit model. This model considers the interdependence of decisions taken by workers and firms, helping to elucidate the causes that lead each of them to end an employment relationship. The Employment and Unemployment Survey (PED) conducted by the State System of Data Analysis (SEADE) and by the Inter-Union Department of Statistics and Socioeconomic Studies (DIEESE) provides data at the individual worker level, allowing for the estimation of the joint probabilities of decisions to quit or stay on the job on the worker’s side, and to maintain or fire the employee on the firm’s side, during a given time period. The estimated parameters relate these estimated probabilities to the characteristics of workers, job contracts, and to the potential macroeconomic determinants in different time periods. The results confirm the theoretical prediction that the probability of termination of an employment relationship tends to be smaller as the worker acquires specific skills. The results also show that the establishment of a formal employment relationship reduces the probability of a quit decision by the worker, and also the firm’s firing decision in non-industrial sectors. With regard to the evolution of quit probability over time, the results show that an increase in the unemployment rate inhibits quitting, although this tends to wane as the unemployment rate rises.
Resumo:
Recentes evidências empíricas sugerem que o consumo aumenta em resposta a um aumento nos gastos do governo. Essa descoberta não pode ser facilmente reconciliada com os resultados dos modelos de otimização dos ciclos econômicos. Para testar tais evidências utilizamos uma versão simplificada do modelo novo keynesiano padrão estendido em Galí, López-Salido e Vallés (2007), para permitir a presença de consumidores Rule-of-Thumb. Mostramos como a interação desses últimos, sob a hipótese de rigidez de preços e financiamento via déficits, pode explicar as evidências existentes sobre os efeitos dos gastos do governo.
Resumo:
O trabalho procura analisar a utilização dos modelos em geral dos modelos de simulação em particular como instrumento para o treinamento de executivos em marketing. Utilizando-se de conceitos e/ou teorias geralmente aceitos na área de marketing, foi elaborado um modelo de simulação que,à luz de dados secundários relevantes da realidade brasileira, pudesse servir como instrumento para (a) treinar executivos na "prática" de marketing, (b) ensinar conceitos e teorias existentes na área de marketing, (c) representar os aspectos relevantes da realidade de marketing, e (d) treinar os executivos de marketing no processo de tomada de decisões. Colocado em teste junto a um grupo selecionado de executivos, o modelo de simulação foi considerado pelos mesmos como sendo um instrumento útil para o treinamento e/ou desenvolvimento de executivos na área de marketing
Resumo:
Neste trabalho fazemos um resumo de alguns artigos que tratam de equilíbrio geral dinâmico com custos de default. Focamos no estudo dos modelos de Kehoe e Levine (1993) e de Alvarez e Jermann (2000). Também descrevemos algumas adaptações do modelo de Alvarez e Jermann, como os trabalhos de Hellwig e Lorenzoni (2009) e de Azariadis e Kaas (2008), e comparamos os resultados desses modelos com os de Huggett (1993), no qual os mercados são exogenamente incompletos. Finalmente, expomos uma falha no algoritmo computacional sugerido por Krueger e Perry (2010) para se computar os equilíbrios estacionários de economias como as de Alvarez e Jermann (2000).
Resumo:
Esta pesquisa busca testar a eficácia de uma estratégia de arbitragem de taxas de juros no Brasil baseada na utilização do modelo de Nelson-Siegel dinâmico aplicada à curva de contratos futuros de taxa de juros de 1 dia da BM&FBovespa para o período compreendido entre 02 de janeiro de 2008 e 03 de dezembro de 2012. O trabalho adapta para o mercado brasileiro o modelo original proposto por Nelson e Siegel (1987), e algumas de suas extensões e interpretações, chegando a um dos modelos propostos por Diebold, Rudebusch e Aruoba (2006), no qual estimam os parâmetros do modelo de Nelson-Siegel em uma única etapa, colocando-o em formato de espaço de estados e utilizando o Filtro de Kalman para realizar a previsão dos fatores, assumindo que o comportamento dos mesmos é um VAR de ordem 1. Desta maneira, o modelo possui a vantagem de que todos os parâmetros são estimados simultaneamente, e os autores mostraram que este modelo possui bom poder preditivo. Os resultados da estratégia adotada foram animadores quando considerados para negociação apenas os 7 primeiros vencimentos abertos para negociação na BM&FBovespa, que possuem maturidade máxima próxima a 1 ano.
Resumo:
Nos próximos anos são esperados elevados volumes de investimentos em Tecnologia da Informação (TI) no Brasil e no Mundo. Por trás desses investimentos está a expectativa de que as organizações irão alcançar níveis superiores de performance e produtividade, os quais deverão ser gerados, entre outras coisas, por novas formas de organização e práticas inovadoras de negócio viabilizadas pela TI. Nesse contexto, a capacidade de gerir as possíveis resistências que serão trazidas por essas mudanças organizacionais se mostra um dos fatores mais importantes para o sucesso desses investimentos. Diante disso, o objetivo deste trabalho é analisar alguns dos diversos modelos existentes sobre resistência a mudança em implantações de Sistemas de Informação e, a partir da articulação de três deles, propor um metamodelo teórico que poderá ter um maior poder de explicação desse fenômeno.
Resumo:
Este trabalho avança no sentido de compreender esse processo de saída da indústria das tradicionais regiões industriais e dos grandes centros urbanos. A partir de uma abordagem empírica quantitativa e do uso de dados secundários sobre mão de obra, busca dialogar com os trabalhos aplicados à economia industrial brasileira que diagnosticam a desconcentração e analisam as decisões locacionais das firmas. Utilizando como referência a metodologia desenvolvida Dumais, Ellison e Glaeser no artigo Geographic Concentration as a Dynamic Process, este trabalho busca compreender o processo de desconcentração industrial a partir de uma abordagem dinâmica, como produto da formação de novos centros industriais, do declínio de antigas regiões especializadas, do surgimento de novas plantas e do fechamento de empresas. A análise empírica sobre as duas últimas décadas confirma o processo de desconcentração da atividade industrial no Brasil, mas aponta para uma desaceleração dessa tendência. Este trabalho confirma o diagnóstico apresentado por outros trabalhos que apontam para diferentes padrões de concentração setoriais. Conforme esperado, os setores de extração são consideravelmente mais concentrados que os de manufatura, pois dependem da localização da matéria prima a ser extraída. Ao abordar apenas os setores têxtil e de vestuário, verifica-se o inverso: estes setores são consideravelmente mais desconcentrados. Selecionando apenas os setores de alta tecnologia, verifica-se que eles também são mais concentrados que todos os setores conjuntamente. As taxas de desconcentração são então decompostas entre os efeitos de reversão à média e dispersão, de forma a evidenciar a mobilidade da indústria. O que se verifica é que a mobilidade é muito maior do que apenas as taxas de desconcentração demonstram. O efeito de reversão à média é quatro vezes maior que o efeito total e consideravelmente maior que o efeito aleatório, sendo suficientemente forte para levar a uma redução de mais de 40% na aglomeração industrial brasileira a cada cinco anos. Por outro lado, o efeito dispersão é responsável por um crescimento de mais de 30% nas taxas de aglomeração para a indústria como um todo a cada quinquênio, de forma que a variação total observada em cada um desses períodos é produto da diferença desses dois movimentos contrários. Estes valores observados são muito superiores aos encontrados por para a economia americana. Ao analisar o efeito que a criação de novas empresas, do encerramento de firmas em funcionamento e da expansão e contração da mão de obra, verifica-se que o nascimento de empresas contribui para a desaglomeração da atividade industrial, pois estes eventos ocorrem em maior quantidade fora dos centros onde já existe aglomeração. Por outro lado, as empresas são menos propensas a encerrar suas atividades nas regiões que possuem uma participação maior do que a esperada de emprego na indústria. Ou seja, o fechamento de empresas, conforme também encontrado para o mercado americano, contribui para a aglomeração industrial. Para expansões e contrações em empresas já existentes, ambos os tipos de evento contribuem para o efeito de reversão à média e para a desaglomeração da indústria.
Resumo:
Este trabalho analisa a importância dos fatores comuns na evolução recente dos preços dos metais no período entre 1995 e 2013. Para isso, estimam-se modelos cointegrados de VAR e também um modelo de fator dinâmico bayesiano. Dado o efeito da financeirização das commodities, DFM pode capturar efeitos dinâmicos comuns a todas as commodities. Além disso, os dados em painel são aplicados para usar toda a heterogeneidade entre as commodities durante o período de análise. Nossos resultados mostram que a taxa de juros, taxa efetiva do dólar americano e também os dados de consumo têm efeito permanente nos preços das commodities. Observa-se ainda a existência de um fator dinâmico comum significativo para a maioria dos preços das commodities metálicas, que tornou-se recentemente mais importante na evolução dos preços das commodities.
Resumo:
Dado a importância da gestão de risco associada às operações de crédito, modelos estatísticos que avaliam o risco de inadimplência tornaram-se fundamentais na mensuração do risco associado a um cliente. Neste contexto, foi desenvolvido um modelo dinâmico de crédito utilizando variáveis características dos clientes, comportamentais e macroeconômicas através da Análise de Sobrevivência aplicada a dados discretos. Os resultados obtidos indicam que a inclusão de variáveis macroeconômicas provoca um efeito significativo, porém baixo, no ajuste do modelo. Entretanto, nota-se uma melhora expressiva no poder de previsão da taxa de inadimplência do portfólio quando aplicado a um conjunto de dados de validação.