971 resultados para Klima-Proxies
Resumo:
O objetivo deste trabalho foi mostrar modelagens alternativas à tradicional maneira de se apurar o risco de mercado para ativos financeiros brasileiros. Procurou-se cobrir o máximo possível de fatores de risco existentes no Brasil; para tanto utilizamos as principais proxies para instrumentos de Renda Fixa. Em momentos de volatilidade, o gerenciamento de risco de mercado é bastante criticado por trabalhar dentro de modelagens fundamentadas na distribuição normal. Aqui reside a maior contribuição do VaR e também a maior crítica a ele. Adicionado a isso, temos um mercado caracterizado pela extrema iliquidez no mercado secundário até mesmo em certos tipos de títulos públicos federais. O primeiro passo foi fazer um levantamento da produção acadêmica sobre o tema, seja no Brasil ou no mundo. Para a nossa surpresa, pouco, no nosso país, tem se falado em distribuições estáveis aplicadas ao mercado financeiro, seja em gerenciamento de risco, precificação de opções ou administração de carteiras. Após essa etapa, passamos a seleção das variáveis a serem utilizadas buscando cobrir uma grande parte dos ativos financeiros brasileiros. Assim, deveríamos identificar a presença ou não da condição de normalidade para, aí sim, realizarmos as modelagens das medidas de risco, VaR e ES, para os ativos escolhidos, As condições teóricas e práticas estavam criadas: demanda de mercado (crítica ao método gausiano bastante difundido), ampla cobertura de ativos (apesar do eventual questionamento da liquidez), experiência acadêmica e conhecimento internacional (por meio de detalhado e criterioso estudo da produção sobre o tema nos principais meios). Analisou-se, desta forma, quatro principais abordagens para o cálculo de medidas de risco sendo elas coerentes (ES) ou não (VaR). É importante mencionar que se trata de um trabalho que poderá servir de insumo inicial para trabalhos mais grandiosos, por exemplo, aqueles que incorporarem vários ativos dentro de uma carteira de riscos lineares ou, até mesmo, para ativos que apresentem risco não-direcionais.
Resumo:
O objetivo desse trabalho é analisar e precificar o prêmio de liquidez exigido pelos investidores nas negociações de debêntures do mercado secundário brasileiro, com base no yield to maturity diário desses papéis. Os testes econométricos foram realizados com base no modelo apresentado por Houweling, Mentink e Vorst (2005) e aplicado ao mercado de eurobonds nos períodos de 1999 a 2001. Foi implementado um modelo de 5 variáveis para controlar, através de betas e características, os outros tipos de risco determinantes do spread das debêntures que não a liquidez. O conhecido modelo de títulos de renda fixa de dois fatores Fama-French (1993) foi utilizado para controlar os riscos de crédito e de taxas de juros, foram incorporados efeitos marginais, através das características individuais (rating e duration) das debêntures e uma adaptação para as particularidades do mercado brasileiro foi realizada, com a inclusão de um fator baseado na taxa PréxDI da duration dos portfólios. Para esse estudo, foram consideradas 4 proxies de liquidez largamente utilizadas na literatura: Volume de Emissão, Idade da Emissão, Número de Transações no dia e Spread de Compra e Venda, sendo o modelo estimado uma vez para cada proxy analisada. Para realizar os testes de regressão e precificar o prêmio de liquidez no mercado secundário de debêntures do Brasil, todas as variáveis do modelo foram calculadas para cada uma das amostras de dados. Posteriormente, para cada proxy de liquidez foram construídos diariamente portfólios mutuamente excludentes, com as debêntures segregadas em portfólios de acordo com a proxy de liquidez em questão, conforme a metodologia proposta por Brennan e Subrahmanyam (1996). A base de dados, que somou 16.083 amostras, se fundamentou nas cotações de mercado fornecidas diariamente pelo Sistema Nacional de Debêntures no período de Maio de 2004 a Novembro de 2006. A hipótese nula de que não existe prêmio de liquidez embutido nos spreads das debêntures negociadas no mercado secundário brasileiro é rejeitada para todas as proxies analisadas. De acordo com a proxy de liquidez utilizada, o prêmio de liquidez no mercado secundário de debêntures varia de 8 a 30 basis points.
Resumo:
This paper evaluates the long-run effects of economic instability. In particular, we study the impact of idiosyncratic shocks to father’s income on children’s human capital accumulation variables such as school drop-outs, repetition rates and domestic and non-domestic labor. Although, the problem of child labor in Brazil has declined greatly during the last decade, the number of children working is still substantial. The low levels of educational attainment in Brazil are also a main cause for concern. The large rotating panel data set used allows for the estimation of the impacts of changes in occupational and income status of fathers on changes in his child’s time allocation circumstances. The empirical analysis is restricted to families with fathers, mothers and at least one child between 10 and 15 years of age in the main Brazilian metropolitan areas during the 1982-1999 period. We perform logistic regressions controlling for child characteristics (gender, age, if he/she is behind in school for age), parents characteristics (grade attainment and income) and time and location variables. The main variables analyzed are dynamic proxies of impulses and responses, namely: shocks to household head’s income and unemployment status, on the one hand and child’s probability of dropping out of school, of repeating a grade and of start working, on the other. The findings suggest that father’s income has a significant positive correlation with child’s dropping out of school and of repeating a grade. The findings do not suggest a significant relationship between a father’s becoming unemployed and a child entering the non-domestic labor market. However, the results demonstrate a significant positive relationship between a father becoming unemployed and a child beginning to work in domestic labor. There was also a positive correlation between father becoming unemployed and a child dropping out and repeating a grade. Both gender and age were highly significant with boys and older children being more likely to work, drop-out and repeat grades.
Resumo:
Este trabalho teve como objetivo identificar o impacto do risco de liquidez nos retornos excedentes esperados das debêntures no mercado secundário brasileiro. Foram realizadas análises de regressão em painel desbalanceado com dados semestrais de 101 debêntures ao longo de oito semestres (primeiro semestre de 2006 ao segundo semestre de 2009), totalizando 382 observações. Sete proxies (Spread de Compra e Venda, %Zero Returns, Idade, Volume de Emissão, Valor Nominal de Emissão, Quantidade Emitida e %Tempo) foram utilizadas para testar o impacto do risco de liquidez nos yield spreads das debêntures. O yield spread foi controlado por até dez outras variáveis determinantes que não a liquidez (Fator Juros, Fator Crédito, Taxa Livre de Risco, Rating, Duration, quatro variáveis contábeis e Volatilidade de equity). A hipótese nula de que não há prêmio de liquidez para o mercado secundário de debêntures no Brasil foi rejeitada apenas para três das sete proxies (Spread de Compra e Venda, Valor Nominal de Emissão e Quantidade Emitida). Os prêmios encontrados são bastante baixos (1,9 basis point para cada 100 basis point de incremento no Spread de Compra e Venda, 0,5 basis point para um aumento de 1% no valor do Valor Nominal de Emissão e 0,17 basis point para cada menos 1000 debêntures emitidas), o que vai ao encontro dos resultados encontrados por Gonçalves e Sheng (2010). De qualquer forma houve perda da eficiência das proxies de liquidez após correção das autocorrelaçôes e potenciais endogeneidades, seja através da inclusão de efeitos fixos, da análise em primeiras diferenças ou da utilização de um sistema de três equações.
Resumo:
Por meio de um survey, ouvimos 56 gestores financeiros e de relações com investidores de empresas listadas na BM&F Bovespa sobre o grau das restrições financeiras observadas durante a crise de 2008/09, contrapondo diferenças entre firmas que declararam ter sofrido restrições àquelas que disseram não terem sido afetadas. Nossa evidência aponta que as restritas rebaixaram os preços praticados e demitiram colaboradores em dose maior do que as irrestritas. As restritas também acusaram salto pronunciado no endividamento, enquanto as irrestritas conservaram suas fontes de financiamento, buscando preservar reputação no mercado. Cerca de 65% das firmas restritas indicam que as restrições financeiras afetaram a capacidade de aceitar projetos atrativos, e 25% dessas firmas se viram forçadas a postergar/cancelar investimentos vantajosos. Comparando a medida direta de nosso survey frente a proxies usualmente adotadas, cremos que este trabalho agrega ao espectro de ferramentas empregadas para avaliar o impacto de restrições financeiras sobre as decisões corporativas.
Resumo:
The work described in this thesis aims to support the distributed design of integrated systems and considers specifically the need for collaborative interaction among designers. Particular emphasis was given to issues which were only marginally considered in previous approaches, such as the abstraction of the distribution of design automation resources over the network, the possibility of both synchronous and asynchronous interaction among designers and the support for extensible design data models. Such issues demand a rather complex software infrastructure, as possible solutions must encompass a wide range of software modules: from user interfaces to middleware to databases. To build such structure, several engineering techniques were employed and some original solutions were devised. The core of the proposed solution is based in the joint application of two homonymic technologies: CAD Frameworks and object-oriented frameworks. The former concept was coined in the late 80's within the electronic design automation community and comprehends a layered software environment which aims to support CAD tool developers, CAD administrators/integrators and designers. The latter, developed during the last decade by the software engineering community, is a software architecture model to build extensible and reusable object-oriented software subsystems. In this work, we proposed to create an object-oriented framework which includes extensible sets of design data primitives and design tool building blocks. Such object-oriented framework is included within a CAD Framework, where it plays important roles on typical CAD Framework services such as design data representation and management, versioning, user interfaces, design management and tool integration. The implemented CAD Framework - named Cave2 - followed the classical layered architecture presented by Barnes, Harrison, Newton and Spickelmier, but the possibilities granted by the use of the object-oriented framework foundations allowed a series of improvements which were not available in previous approaches: - object-oriented frameworks are extensible by design, thus this should be also true regarding the implemented sets of design data primitives and design tool building blocks. This means that both the design representation model and the software modules dealing with it can be upgraded or adapted to a particular design methodology, and that such extensions and adaptations will still inherit the architectural and functional aspects implemented in the object-oriented framework foundation; - the design semantics and the design visualization are both part of the object-oriented framework, but in clearly separated models. This allows for different visualization strategies for a given design data set, which gives collaborating parties the flexibility to choose individual visualization settings; - the control of the consistency between semantics and visualization - a particularly important issue in a design environment with multiple views of a single design - is also included in the foundations of the object-oriented framework. Such mechanism is generic enough to be also used by further extensions of the design data model, as it is based on the inversion of control between view and semantics. The view receives the user input and propagates such event to the semantic model, which evaluates if a state change is possible. If positive, it triggers the change of state of both semantics and view. Our approach took advantage of such inversion of control and included an layer between semantics and view to take into account the possibility of multi-view consistency; - to optimize the consistency control mechanism between views and semantics, we propose an event-based approach that captures each discrete interaction of a designer with his/her respective design views. The information about each interaction is encapsulated inside an event object, which may be propagated to the design semantics - and thus to other possible views - according to the consistency policy which is being used. Furthermore, the use of event pools allows for a late synchronization between view and semantics in case of unavailability of a network connection between them; - the use of proxy objects raised significantly the abstraction of the integration of design automation resources, as either remote or local tools and services are accessed through method calls in a local object. The connection to remote tools and services using a look-up protocol also abstracted completely the network location of such resources, allowing for resource addition and removal during runtime; - the implemented CAD Framework is completely based on Java technology, so it relies on the Java Virtual Machine as the layer which grants the independence between the CAD Framework and the operating system. All such improvements contributed to a higher abstraction on the distribution of design automation resources and also introduced a new paradigm for the remote interaction between designers. The resulting CAD Framework is able to support fine-grained collaboration based on events, so every single design update performed by a designer can be propagated to the rest of the design team regardless of their location in the distributed environment. This can increase the group awareness and allow a richer transfer of experiences among them, improving significantly the collaboration potential when compared to previously proposed file-based or record-based approaches. Three different case studies were conducted to validate the proposed approach, each one focusing one a subset of the contributions of this thesis. The first one uses the proxy-based resource distribution architecture to implement a prototyping platform using reconfigurable hardware modules. The second one extends the foundations of the implemented object-oriented framework to support interface-based design. Such extensions - design representation primitives and tool blocks - are used to implement a design entry tool named IBlaDe, which allows the collaborative creation of functional and structural models of integrated systems. The third case study regards the possibility of integration of multimedia metadata to the design data model. Such possibility is explored in the frame of an online educational and training platform.
Resumo:
Esta dissertação analisa a conexão existente entre o mercado de dívida pública e a política monetária no Brasil. Com base em um Vetor Auto-Regressivo (VAR), foram utilizadas duas proxies alternativas de risco inflacionário para mostrar que choques positivos no risco inflacionário elevam tanto as expectativas de inflação do mercado quanto os juros futuros do Swap Pré x DI. Em seguida, com base em modelo de inconsistência dinâmica de Blanchard e Missale (1994) e utilizando a metodologia de Johansen, constatou-se que um aumento nos juros futuros diminui a maturidade da dívida pública, no longo prazo. Os resultados levam a duas conclusões: o risco inflacionário 1) dificulta a colocação de títulos nominais (não-indexados) no mercado pelo governo, gerando um perfil de dívida menos longo do que o ideal e 2) torna a política monetária mais custosa.
Resumo:
Com a descentralização que caracterizou a federação brasileira nas últimas décadas, os municípios receberam maiores atribuições e responsabilidades, implementando políticas públicas e provendo serviços básicos à população. Contudo, uma vez que as receitas próprias municipais são capazes de custear apenas parcialmente estas atividades, torna-se necessário um volume elevado de transferências que fluem dos níveis centrais aos municípios. Além do mais, o Brasil é um país de território vasto e heterogêneo, em que municípios com distintas capacidades de autofinanciamento, bem como diferentes demandas por serviços públicos, convivem no mesmo regime federativo. Diante deste quadro, torna-se fundamental estudar a distribuição dos recursos das transferências, verificando se os municípios que mais necessitam de suporte financeiro têm sido os efetivamente beneficiados. À este processo de reduzir as disparidades horizontais provenientes de diferenças nas bases tributárias e demandas locais dá-se o nome de equalização fiscal. A equalização fiscal permite que municípes de diferentes jurisdições recebam o mesmo nível de serviços públicos para dada carga tributária assumida por eles (net fiscal benefit), ou seja, a equalização promove a equidade na provisão dos serviços públicos, além de evitar a criação de ineficiência alocativa derivada de migrações motivadas por benefícios fiscais. Para criar a equalização fiscal as transferências devem beneficiar aqueles municípios com menor capacidade de autofinanciamento e maiores necessidades fiscais atreladas à custos e demandas pelos serviços públicos. Neste sentido, este trabalho busca avaliar o efeito das transferências intergovernamentais na equalização fiscal dos municípios, considerando as principais proxies de capacidade fiscal – potencial de geração de receita própria – e necessidade fiscal – volume de recursos demandados em virtude das características da região e da população do município. A análise é realizada para cada grupo de transferências, desde aquelas com finalidade essencialmente redistributiva como o FPM até aquelas predominantemente devolutivas, como a cota-parte de ICMS. Os resultados mostram que algumas transferências como o FPM contribuem pouco para a equalização fiscal, apesar do objetivo de natureza redistributiva implícito neste repasse, assim como algumas transferências condicionais, como o FUNDEB, apesar de não almejarem especificamente corrigir as disparidades horizontais na capacidade dos municípios realizarem suas funções, podem significar um efeito positivo para a equalização fiscal no nível municipal da federação. Outro resultado importante que desponta na análise é o efeito da transferência do Bolsa-família na equalização, pois esta transferência consegue atenuar as distorções realizadas pelas demais transferências distribuídas aos municípios. O Bolsa-família, apesar de não ser uma transferência intergovernamental, foi incorporada na análise por representar um expressivo volume de recursos, por concorrer com recursos de outras transferências e ainda ter efeito potencial semelhante ao das demais transferências intergovernamentais no âmbito da equalização fiscal, uma vez que libera recursos no orçamento do governo local que, do contrário, poderiam estar comprometidos com a política local de assistência social. Outro resultado é a observação de que as transferências voluntárias afetam menos a equalização, ou seja, não contribuem para a consecução deste objetivo nem prejudicam a redução das disparidades horizontais, sendo relativamente neutras ou menos intervenientes em relação às demandas e capacidade de arrecadação dos municípios, provavelmente por não seguirem critérios, nem econômicos, como o ICMS, nem redistributivos, como o FPM, e sim critérios políticos, como apontado pela literatura de ciência política.
Resumo:
Esta tese é composta por três artigos. Dois deles investigam assuntos afeitos a tributação e o terceiro é um artigo sobre o tema “poupança”'. Embora os objetos de análise sejam distintos, os três possuem como característica comum a aplicação de técnicas de econometria de dados em painel a bases de dados inéditas. Em dois dos artigos, utiliza-se estimação por GMM em modelos dinâmicos. Por sua vez, o artigo remanescente é uma aplicação de modelos de variável dependente latente. Abaixo, apresenta-se um breve resumo de cada artigo, começando pelos dois artigos de tributação, que dividem uma seção comum sobre o ICMS (o imposto estadual sobre valor adicionado) e terminando com o artigo sobre poupança. O primeiro artigo analisa a importância da fiscalização como instrumento para deter a evasão de tributos e aumentar a receita tributária, no caso de um imposto sobre valor adicionado, no contexto de um país em desenvolvimento. O estudo é realizado com dados do estado de São Paulo. Para tratar questões relativas a endogeneidade e inércia na série de receita tributária, empregam-se técnicas de painel dinâmico. Utiliza-se como variáveis de controle o nível do PIB regional e duas proxies para esforço fiscal: a quantidade e o valor das multas tributárias. Os resultados apontam impacto significativo do esforço fiscal nas receitas tributárias. O artigo evidencia, indiretamente, a forma como a evasão fiscal é afetada pela penalidade aplicada aos casos de sonegação. Suas conclusões também são relevantes no contexto das discussões sobre o federalismo fiscal brasileiro, especialmente no caso de uma reforma tributária potencial. O segundo artigo examina uma das principais tarefas das administrações tributárias: a escolha periódica de contribuintes para auditoria. A melhora na eficiência dos mecanismos de seleção de empresas tem o potencial de impactar positivamente a probabilidade de detecção de fraudes fiscais, provendo melhor alocação dos escassos recursos fiscais. Neste artigo, tentamos desenvolver este mecanismo calculando a probabilidade de sonegação associada a cada contribuinte. Isto é feito, no universo restrito de empresas auditadas, por meio da combinação “ótima” de diversos indicadores fiscais existentes e de informações dos resultados dos procedimentos de auditoria, em modelos de variável dependente latente. Após calculados os coeficientes, a probabilidade de sonegação é calculada para todo o universo de contribuintes. O método foi empregado em um painel com micro-dados de empresas sujeitas ao recolhimento de ICMS no âmbito da Delegacia Tributária de Guarulhos, no estado de São Paulo. O terceiro artigo analisa as baixas taxas de poupança dos países latino-americanos nas últimas décadas. Utilizando técnicas de dados em painel, identificam-se os determinantes da taxa de poupança. Em seguida, faz-se uma análise contrafactual usando a China, que tem apresentado altas taxas de poupança no mesmo período, como parâmetro. Atenção especial é dispensada ao Brasil, que tem ficado muito atrás dos seus pares no grupo dos BRICs neste quesito. O artigo contribui para a literatura existente em vários sentidos: emprega duas amplas bases de dados para analisar a influência de uma grande variedade de determinantes da taxa de poupança, incluindo variáveis demográficas e de previdência social; confirma resultados previamente encontrados na literatura, com a robustez conferida por bases de dados mais ricas; para alguns países latino-americanos, revela que as suas taxas de poupança tenderiam a aumentar se eles tivessem um comportamento mais semelhante ao da China em outras áreas, mas o incremento não seria tão dramático.
Resumo:
This paper investigates the implications of the credit channel of the monetary policy transmission mechanism in the case of Brazil, using a structural FAVAR (SFAVAR) approach. The term structural comes from the estimation strategy, which generates factors that have a clear economic interpretation. The results show that unexpected shocks in the proxies for the external nance premium and the bank balance sheet channel produce large and persistent uctuations in in ation and economic activity accounting for more than 30% of the error forecast variance of the latter in a three-year horizon. The central bank seems to incorporate developments in credit markets especially variations in credit spreads into its reaction function, as impulse-response exercises show the Selic rate is declining in response to wider credit spreads and a contraction in the volume of new loans. Counterfactual simulations also demonstrate that the credit channel ampli ed the economic contraction in Brazil during the acute phase of the global nancial crisis in the last quarter of 2008, thus gave an important impulse to the recovery period that followed.
Resumo:
The onset of the financial crisis in 2008 and the European sovereign crisis in 2010 renewed the interest of macroeconomists on the role played by credit in business cycle fluctuations. The purpose of the present work is to present empirical evidence on the monetary policy transmission mechanism in Brazil with a special eye on the role played by the credit channel, using different econometric techniques. It is comprised by three articles. The first one presents a review of the literature of financial frictions, with a focus on the overlaps between credit activity and the monetary policy. It highlights how the sharp disruptions in the financial markets spurred central banks in developed and emerging nations to deploy of a broad set of non conventional tools to overcome the damage on financial intermediation. A chapter is dedicated to the challenge face by the policymaking in emerging markets and Brazil in particular in the highly integrated global capital market. This second article investigates the implications of the credit channel of the monetary policy transmission mechanism in the case of Brazil, using a structural FAVAR (SFAVAR) approach. The term “structural” comes from the estimation strategy, which generates factors that have a clear economic interpretation. The results show that unexpected shocks in the proxies for the external finance premium and the credit volume produce large and persistent fluctuations in inflation and economic activity – accounting for more than 30% of the error forecast variance of the latter in a three-year horizon. Counterfactual simulations demonstrate that the credit channel amplified the economic contraction in Brazil during the acute phase of the global financial crisis in the last quarter of 2008, thus gave an important impulse to the recovery period that followed. In the third articles, I make use of Bayesian estimation of a classical neo-Keynesian DSGE model, incorporating the financial accelerator channel developed by Bernanke, Gertler and Gilchrist (1999). The results present evidences in line to those already seen in the previous article: disturbances on the external finance premium – represented here by credit spreads – trigger significant responses on the aggregate demand and inflation and monetary policy shocks are amplified by the financial accelerator mechanism. Keywords: Macroeconomics, Monetary Policy, Credit Channel, Financial Accelerator, FAVAR, DSGE, Bayesian Econometrics
Resumo:
In this paper, we try to rationalize the existence of one of the most common affirmative action policies: educational quotas. We model a two period economy with asymmetric information and endogenous human capital formation. Individuals may be from two different groups in the population, where each group is defined by an observable and exogenous characteristic. The distribution of skills differ across groups. We introduce educational quotas into the model by letting the planner reduce the effort cost that a student from one of the groups has to endure in order to be accepted into a university. Affirmative action policies can be interpreted as a form of ``tagging" since group characteristics are used as proxies for productivity. We find that although educational quotas are usually efficient, they need not subsidize the education of the low skill group.
Resumo:
Neste trabalho, medimos os efeitos da diversificação sob o aspecto de risco e retorno entre os grandes players globais de mineração. Para avaliar a diversificação, primeiramente, foi criado um ranking que relaciona risco, grau de diversificação e retorno das empresas. Foi necessário montar um banco de dados com séries de receita e de proxies de geração de caixa por negócios, o qual não se encontra prontamente disponível na Bloomberg, Economática ou em outras bases de dados públicas. Estimamos os efeitos da diversificação fazendo o uso do CAPM para calcular o beta das empresas e das estatísticas básicas das séries históricas de retornos para encontrar o Índice de Sharpe. Examinamos os demonstrativos financeiros das empresas para entender com maior profundidade seus negócios para uma amostra equivalente a 50% do valor de mercado das top 100 empresas de mineração do mundo para o período entre 2002 e 2014. Por fim, abordamos, sob a forma de estudo de caso, questões relevantes na diversificação como a eficiência e a disciplina na alocação de capital. Nosso estudo confirmou que existe uma correlação negativa entre o risco e o grau de diversificação e que há sinais que sugerem que as companhias mais focadas possuem maior disciplina na alocação do capital, e, com isso geram mais valor para seus acionistas.
Resumo:
This work evaluates empirically the Taylor rule for the US and Brazil using Kalman Filter and Markov-Switching Regimes. We show that the parameters of the rule change significantly with variations in both output and output gap proxies, considering hidden variables and states. Such conclusions call naturally for robust optimal monetary rules. We also show that Brazil and US have very contrasting parameters, first because Brazil presents time-varying intercept, second because of the rigidity in the parameters of the Brazilian Taylor rule, regardless the output gap proxy, data frequency or sample data. Finally, we show that the long-run inflation parameter of the US Taylor rule is less than one in many periods, contrasting strongly with Orphanides (forthcoming) and Clarida, Gal´i and Gertler (2000), and the same happens with Brazilian monthly data.
Resumo:
A partir de uma amostra de 119 empresas que deslistaram voluntariamente no período de 1999 a 2013, investigamos problemas de agência e acesso a capital como possíveis determinantes no fechamento de capital, controlando para custo de manter a empresa listada, sub-avaliação, tamanho e liquidez na bolsa. Proxies relacionadas a problemas de agência, tais como maior concentração de propriedade, combinado com menor retorno sobre ativos, possuem forte influência na deslistagem das ações, além de fluxo de caixa livre e distribuição de dividendos. Quanto ao uso de mercado de capitais para acesso a follow on, bem como acesso a dívida, encontramos que as empresas que deslistam possuem menor necessidade de acesso ao mercado de dívida, controlando para empresas com mesmo perfil. Para efeito de controle, não encontramos evidência de que custo de se manter listada nem que a liquidez sejam determinantes.