885 resultados para proxy
Resumo:
Nesta dissertação analisamos se o ambiente institucional relacionado ao nível de proteção dos investidores dos países da América Latina contribuiu para uma redução na prática de gerenciamento de resultados das empresas. Utilizamos quatro modelos para detectar a prática de gerenciamento de resultados (Jones Model, Modified Jones Model, Modified Jones Model with ROA e o Kang & Sivaramakrishna Model). A nossa amostra é formada pelas empresas de capital aberto e listada em bolsa nos países da Argentina, Brasil, Chile, Colômbia, México e Peru, somando 313 empresas, para os anos de 2000 a 2009, totalizando 9.986 dados de empresa-trimestre. Utilizamos uma regressão em duas etapas, primeira usamos os modelos com dados em painel para estimar o discretionary accrual, em seguida, com o resíduo do modelo como variável dependente na segunda regressão sendo a variável independente o nível de proteção do investidor. A nota alcançada pelo país na pesquisa da Latin America Venture Capital Association (LAVCA) é usada como proxy para o nível de proteção ao investidor.. Há evidências em linha com a teoria de que um melhor ambiente institucional contribui para a diminuição não só da prática de gerenciamento de resultado, mas também as variabilidades do gerenciamento de resultados essas evidências reforçam a importância do fator proteção ao investidor para o desenvolvimento dos países da América Latina. Os países que possuem um sistema que incentive o investimento privado, com melhores tratamentos tributários, proteção aos credores, governança corporativa e padronização do sistema contábil, apresentam empresas com um menor nível de gerenciamento de resultado.
Resumo:
The work described in this thesis aims to support the distributed design of integrated systems and considers specifically the need for collaborative interaction among designers. Particular emphasis was given to issues which were only marginally considered in previous approaches, such as the abstraction of the distribution of design automation resources over the network, the possibility of both synchronous and asynchronous interaction among designers and the support for extensible design data models. Such issues demand a rather complex software infrastructure, as possible solutions must encompass a wide range of software modules: from user interfaces to middleware to databases. To build such structure, several engineering techniques were employed and some original solutions were devised. The core of the proposed solution is based in the joint application of two homonymic technologies: CAD Frameworks and object-oriented frameworks. The former concept was coined in the late 80's within the electronic design automation community and comprehends a layered software environment which aims to support CAD tool developers, CAD administrators/integrators and designers. The latter, developed during the last decade by the software engineering community, is a software architecture model to build extensible and reusable object-oriented software subsystems. In this work, we proposed to create an object-oriented framework which includes extensible sets of design data primitives and design tool building blocks. Such object-oriented framework is included within a CAD Framework, where it plays important roles on typical CAD Framework services such as design data representation and management, versioning, user interfaces, design management and tool integration. The implemented CAD Framework - named Cave2 - followed the classical layered architecture presented by Barnes, Harrison, Newton and Spickelmier, but the possibilities granted by the use of the object-oriented framework foundations allowed a series of improvements which were not available in previous approaches: - object-oriented frameworks are extensible by design, thus this should be also true regarding the implemented sets of design data primitives and design tool building blocks. This means that both the design representation model and the software modules dealing with it can be upgraded or adapted to a particular design methodology, and that such extensions and adaptations will still inherit the architectural and functional aspects implemented in the object-oriented framework foundation; - the design semantics and the design visualization are both part of the object-oriented framework, but in clearly separated models. This allows for different visualization strategies for a given design data set, which gives collaborating parties the flexibility to choose individual visualization settings; - the control of the consistency between semantics and visualization - a particularly important issue in a design environment with multiple views of a single design - is also included in the foundations of the object-oriented framework. Such mechanism is generic enough to be also used by further extensions of the design data model, as it is based on the inversion of control between view and semantics. The view receives the user input and propagates such event to the semantic model, which evaluates if a state change is possible. If positive, it triggers the change of state of both semantics and view. Our approach took advantage of such inversion of control and included an layer between semantics and view to take into account the possibility of multi-view consistency; - to optimize the consistency control mechanism between views and semantics, we propose an event-based approach that captures each discrete interaction of a designer with his/her respective design views. The information about each interaction is encapsulated inside an event object, which may be propagated to the design semantics - and thus to other possible views - according to the consistency policy which is being used. Furthermore, the use of event pools allows for a late synchronization between view and semantics in case of unavailability of a network connection between them; - the use of proxy objects raised significantly the abstraction of the integration of design automation resources, as either remote or local tools and services are accessed through method calls in a local object. The connection to remote tools and services using a look-up protocol also abstracted completely the network location of such resources, allowing for resource addition and removal during runtime; - the implemented CAD Framework is completely based on Java technology, so it relies on the Java Virtual Machine as the layer which grants the independence between the CAD Framework and the operating system. All such improvements contributed to a higher abstraction on the distribution of design automation resources and also introduced a new paradigm for the remote interaction between designers. The resulting CAD Framework is able to support fine-grained collaboration based on events, so every single design update performed by a designer can be propagated to the rest of the design team regardless of their location in the distributed environment. This can increase the group awareness and allow a richer transfer of experiences among them, improving significantly the collaboration potential when compared to previously proposed file-based or record-based approaches. Three different case studies were conducted to validate the proposed approach, each one focusing one a subset of the contributions of this thesis. The first one uses the proxy-based resource distribution architecture to implement a prototyping platform using reconfigurable hardware modules. The second one extends the foundations of the implemented object-oriented framework to support interface-based design. Such extensions - design representation primitives and tool blocks - are used to implement a design entry tool named IBlaDe, which allows the collaborative creation of functional and structural models of integrated systems. The third case study regards the possibility of integration of multimedia metadata to the design data model. Such possibility is explored in the frame of an online educational and training platform.
Resumo:
O presente artigo estuda a relação entre corrupção e discricionariedade do gasto público ao responder a seguinte pergunta: regras de licitação mais rígidas, uma proxy para discricionariedade, resultam em menor prevalência de corrupção nos municípios brasileiros? A estratégia empírica é uma aproximação de regressões em dois estágios (2SLS) estimadas localmente em cada transição de regras de licitação, cuja fonte de dados de corrupção é o Programa de Fiscalização por Sorteio da CGU e os dados sobre discricionariedade são derivados da Lei 8.666/93, responsável por regular os processos de compras e construção civil em todas as esferas de governo. Os resultados mostram, entretanto, que menor discricionariedade está relacionada com maior corrupção para quase todos os cortes impostos pela lei de licitações.
Resumo:
Nesse trabalho, procuramos identificar fatores sistemáticos que expliquem uma variação significativa nos fluxos destinados às diversas categorias de fundos de investimento brasileiros, a partir de análises de uma amostra de dados agregados de captações e resgates nesses produtos. O estudo buscou avaliar a existência de padrões de comportamento comuns aos investidores de fundos locais através da análise da migração de fluxos entre as diversas classes de fundos. Foram inicialmente tratados os fatores não comportamentais conhecidos que impactam o fluxo dos fundos, a variável dependente. Esses fatores conhecidos foram apurados através de uma revisão dos trabalhos acadêmicos dos mercados internacional e local. Após esse tratamento foi aplicado o método de decomposição de valores singulares (SVD - Singular Value Decomposition), com o objetivo de avaliarmos os efeitos comportamentais agrupados dos investidores. A decomposição em valores singulares sugere como principais fatores comuns comportamentos de entrada e saída de fundos em massa e migrações entre as classes de fundos de menor e as de maior risco, o que Baker e Wurgler (2007) chamaram de demanda especulativa, e que, segundo esses e outros autores pesquisados, poderia ser interpretada como uma proxy do sentimento dos investidores. Guercio e Tkac (2002) e Edelen et al. (2010), encontraram em suas pesquisas evidências da diferença de comportamento entre investidores de atacado e de varejo, o que foi detectado para a classes de fundos de Renda Variável no caso do presente estudo sobre o mercado brasileiro. O entendimento das variações na tolerância a risco dos investidores de fundos de investimento pode auxiliar na oferta de produtos mais compatíveis com a demanda. Isso permitiria projetar captações para os produtos com base nas características dessa oferta, o que também desenvolvemos nessa pesquisa para o caso das categorias de fundos Multimercado e Renda variável, através de um modelo de espaço de estados com sazonalidade determinística e inicialização SVD. O modelo proposto nesse trabalho parece ter conseguido capturar, na amostra avaliada (2005-2008), um comportamento que se manteve fora da amostra (2009-2011), validando, ao menos na amostra considerada, a proposta de extração dos componentes principais agregados do comportamento dos investidores de fundos brasileiros.
Resumo:
Na última década, a economia brasileira apresentou-se estável adquirindo maior credibilidade mundial. Dentre as opções de investimento, estão os mercados de ações e de títulos públicos. O portfolio de investimento dos agentes é determinado de acordo com os retornos dos ativos e/ou aversão ao risco, e a diversificação é importante para mitigar risco. Dessa forma, o objetivo principal do presente trabalho é estudar a inter-relação entre os mercados de títulos públicos e ações, avaliando aspectos de liquidez e quais variáveis representariam melhor esta relação, verificando também como respondem a um choque (surpresa econômica), pois a percepção de alteração do cenário econômico, ou variações de fluxo financeiro, pode alterar/inverter as relações entre esses mercados. Para isso, estimou-se modelos de vetores auto-regressivos - VAR, com variáveis de retorno, volatilidade e volume negociado para cada um dos mercados em combinações diferentes das variáveis representativas, visando encontrar o(s) modelo(s) mais descritivo(s) das inter-relações entre os mercados, dado a amostra utilizada, para aplicar a dummy de surpresa econômica. Em estudo semelhante Chordia, Sarkar e Subrahmanyam (2005) concluiram que choques de liquidez e volatilidade são positivamente correlacionado nos mercados de ações e títulos públicos em horizontes diários, indicando que os choques de liquidez e volatilidade são muitas vezes de natureza sistêmica. O mesmo não foi observado para a proxy de liquidez utilizada na amostra brasileira. Um resultado interessante a ser ressaltado deve-se as séries SMLL11 (índice Small Caps) e IDkAs (índice de duração constante ANBIMA) não possuírem relação de causalidade de Granger com as demais séries, mas os retornos dos IDkAs Granger causam os retornos do índice SMLL11. Por fim, o choque de surpresa econômica não se mostra explicativo sobre qualquer alteração nas inter-relações entre os mercados de títulos públicos e ações.
Resumo:
O objetivo desse estudo é analisar a relação entre a gestão do capital de giro e o valor das empresas. A motivação para o estudo é a importância que a gestão do capital de giro tem no desempenho das empresas, bem como a quantidade relativamente pequena de estudos realizados sobre o tema. Na maioria dos estudos sobre capital de giro, a proxy para o desempenho das empresas é a lucratividade, medida através dos retornos sobre ativo, vendas ou patrimônio líquido. O presente trabalho utiliza o Q de Tobin como a medida de desempenho das empresas. O Q de Tobin relaciona o valor de mercado de uma empresa com o valor de reposição de seus ativos. A gestão do capital de giro é medida através do ciclo financeiro. O estudo analisa individualmente as influências de cada um dos componentes do ciclo financeiro no valor das empresas; portanto utiliza como variáveis independentes os prazos médios de estocagem, contas a receber e pagamento a fornecedores. Foi realizada uma pesquisa com amostra de empresas brasileiras listadas na BOVESPA, no período de 1995 a 2011. Os dados foram analisados através de regressões utilizando Dados em Painel, e foram encontradas correlações negativas e estatisticamente significativas entre o ciclo financeiro e o Q de Tobin, sugerindo que empresas que possuem um ciclo financeiro reduzido conseguem gerar maior valor aos acionistas. Também foi feita análise separada nos diferentes setores da economia, mostrando que existem diferenças nessa relação para os diferentes ramos de negócio. Por exemplo, enquanto que empresas do ramo Químico conseguem na média aumentar seu valor na bolsa em 0,32% ao reduzirem em um dia no ciclo financeiro, empresas de Siderurgia e Metalurgia tem um aumento da ordem de 0,08%, portanto quatro vezes menor. Entre os componentes do ciclo financeiro, o prazo médio de recebimento de clientes é o mais relevante, e os resultados obtidos são consistentes com demais trabalhos sobre o tema e entre os diversos setores da economia.
Resumo:
International agreements arising from the need to deal with the global warming promoted by countries decided to embrace a climate change policy bring on the debate of the impacts on firms in a global competitive market. Facing, therefore, different environmental standards accordingly to firm’s physical location. Once European Union is taking the lead in adopting stringent environmental regulation, this study aims to assess the impact of environmental regulations on firms in Europe. A novel database was constructed providing firm-level air pollution emission information in the European Union. Using difference-in-difference model, the effect of the intervention of EU environmental policy change suggests a negative response in fixed assets among EU firms due to the 2006 EU policy. The evidence to the hypothesis that firms in European Union have been decreasing its firms fixed assets, as a proxy of production capacity, with the change in environmental regulation, provides general support for the PHH, however, it doesn’t remain in robustness checks. The contribution of this work is bringing a revisited view of the actual effect of environmental regulation based on Kyoto Protocol directives on European firms.
Resumo:
O trabalho tem por objetivo validar a influência dos formadores de mercado de ações sobre a liquidez, uma proxy capaz de medir os custos de transação no mercado secundário de ações. O desafio de medir corretamente a liquidez teve trabalhos relevantes desde 1984, e recentemente foi alvo de uma revisão geral que comparou diversas medidas e encontrou alguns ganhadores. A proposta do presente trabalho é a de revisitar estas medidas e selecionar a métrica mais adequada ao mercado Brasileiro. Escolhida a proxy mais significativa, será então avaliada a relevância do formador de mercado na determinação dos custos de transação por meio de uma versão modificada da equação econométrica de Sanvicente (2012). Por fim, este trabalho será relevante para identificar se as empresas devem contratar formadores de mercado para suas ações, com o fim de reduzirem os custos da negociação de suas ações.
Resumo:
Este estudo examina a relação entre o porte da empresa de auditoria e a manipulação da informação contábil. Consistente com a literatura, o porte de auditoria tem sido utilizado como proxy de qualidade do serviço, e classificado como auditoria Big 6 e não-Big 6, sendo quanto maior o porte, maior a qualidade. A pesquisa abrangeu os estudos que utilizam acumulações discricionárias na estimação da manipulação da informação contábil. Por meio de uma revisão sistemática da literária, foram selecionadas 14 pesquisas empíricas, abrangendo Estados Unidos, Europa e Ásia. Com base na análise dos seus aspectos substantivos e metodológicos, a conclusão é que a magnitude da manipulação da informação contábil não é uniforme nos países estudados sugerindo que os ambientes cultural, institucional e legal podem influenciar a capacidade da auditoria em mitigar a ação discricionária dos gestores.
Resumo:
Nas últimas décadas, o agronegócio brasileiro tem ganhado cada vez mais relevância para a economia nacional, apresentando significativos ganhos de produtividade. Estes ganhos ocorreram devido a maior absorção de tecnologia pelos produtores agrícolas, incluindo o uso de insumos, dentre os quais se destacam os fertilizantes. As vendas de fertilizantes no Brasil cresceram 5,9% entre 1991 e 2012, atingindo 29,5 milhões de toneladas em 2012. Apesar disso, no Brasil, poucos trabalhos tratam dos fatores que afetam as suas vendas. Justifica-se, assim o presente estudo que tem como objetivo analisar os principais fatores que afetam as vendas brasileiras de fertilizantes para a soja. A metodologia utilizada é a de séries temporais e o período da análise é o de 1988 a 2012. Para atingir o objetivo uma função de vendas foi estimada considerando as propriedades de integração e cointegração das séries temporais. O modelo proposto para explicar as vendas de fertilizantes para a soja incluíam as seguintes variáveis exógenas: área plantada de soja; preço dos fertilizantes para a soja; produtividade da soja e preço da soja. A variável preço da soja apresentou uma alta multicolinearidade com a área plantada de soja, e por isto não foi incluída no modelo final. Os resultados encontrados no estudo mostram que a área plantada é o fator que exerce maior influência sobre as vendas de fertilizantes para a soja, sendo que um choque positivo de 1% sobre o crescimento da área plantada tem efeito positivo de 1,8% sobre as vendas de fertilizantes para a soja. O preço dos fertilizantes para a soja resultou em um coeficiente negativo conforme era esperado. A produtividade da soja foi utilizada como uma proxy para a capitalização do produtor agrícola, e, assim como a área plantada, ela apresentou sinal positivo, embora de menor magnitude e não estatisticamente significativo.
Resumo:
O intuito desta dissertação é analisar o gerenciamento pelas burocracias municipais das novas atribuições advindas da descentralização, a partir da Constituição de 1988. De maneira breve, a pesquisa focou na qualidade das burocracias entre os diferentes níveis subnacionais – lacuna da literatura da área –, e para tanto, analisou o impacto das características do funcionalismo local no desempenho dos municípios, no ano de 2010. Como medida de desempenho dos governos utilizou-se um indicador do Ministério do Desenvolvimento Social, o Índice de Gestão Descentralizada (IGD-M) que mede o desempenho da burocracia municipal no gerenciamento do Programa Bolsa Família. O Programa Bolsa Família foi escolhido como proxy para o desempenho municipal pela sua simplicidade. Em outras palavras, se a burocracia municipal falha em administrar um programa simples espera-se resultado pior no gerenciamento de programas mais complexos. Os resultados encontrados apontam que uma burocracia mais qualificada – isto é, com maior número médio de anos de estudo – e com mais experiência, possuí melhor desempenho no IGD-M.
Resumo:
The goal of t.his paper is to show the possibility of a non-monot.one relation between coverage and risk which has been considered in the literature of insurance models since the work of Rothschild and Stiglitz (1976). We present an insurance model where the insured agents have heterogeneity in risk aversion and in lenience (a prevention cost parameter). Risk aversion is described by a continuou.'l parameter which is correlated with lenience and, for the sake of simplicity, we assume perfect correlation. In the case of positive correlation, the more risk averse agent has higher cost of prevention leading to a higher demand for coverage. Equivalently, the single crossing property (SCP) is valid and implies a positive correlation between coverage and risk in equilibrium. On the other hand, if the correlation between risk aversion and lenience is negative, not only may the sep be broken, but also the monotonicity of contracts, i.e., the prediction that high (Iow) risk averse types choose full (partial) insurance. In both cases riskiness is monotonic in risk aversion, but in the last case t,here are some coverage leveIs associated with two different risks (low and high), which implies that the ex-ante (with respect to the risk aversion distribution) correlation bet,ween coverage and riskiness may have every sign (even though the ex-post correlation is always positive). Moreover, using another instrument (a proxy for riskiness), we give a testable implication to disentangle single crossing and non single crossing under an ex-post zero correlation result: the monotonicity of coverage as a function of riskiness. Since by controlling for risk aversion (no asymmetric informat, ion), coverage is a monotone function of riskiness, this also gives a test for asymmetric information. Finally, we relate this theoretical results to empirica! tests in the recent literature, specially the Dionne, Gouriéroux and Vanasse (2001) work. In particular, they found an empirical evidence that seems to be compatible with asymmetric information and non single crossing in our framework. More generally, we build a hidden information model showing how omitted variabIes (asymmetric information) can bias the sign of the correlation of equilibrium variabIes conditioning on ali observabIe variabIes. We show that this may be t,he case when the omitted variabIes have a non-monotonic reIation with t,he observable ones. Moreover, because this non-monotonic reIat,ion is deepIy reIated with the failure of the SCP in one-dimensional screening problems, the existing lit.erature on asymmetric information does not capture t,his feature. Hence, our main result is to point Out the importance of t,he SCP in testing predictions of the hidden information models.
Resumo:
In recent years, many central banks have adopted inflation targeting policies starting an intense debate about which measure of inflation to adopt. The literature on core inflation has tried to develop indicators of inflation which would respond only to "significant" changes in inflation. This paper defines a measure of core inflation as the common trend of prices in a multivariate dynamic model, that has, by construction, three properties: it filters idiosyncratic and transitory macro noises, and it leads the future leveI of headline inflation. We also show that the popular trimmed mean estimator of core inflation could be regarded as a proxy for the ideal GLS estimator for heteroskedastic data. We employ an asymmetric trimmed mean estimator to take account of possible skewness of the distribution, and we obtain an unconditional measure of core inflation.
Resumo:
This paper contributes to the literature on aid and economic growth. We posit that it is not the levei of aid flows per se but the stability of such flows that determines the impact of aid on economic growth. Three measures of aid instability are employed. One is a simple deviation from trend, and measures overall instability. The other measures are based on auto-regressive estimates to capture deviations from an expected trend. These measures are intended to proxy for uncertainty in aid receipts. We posit that such uncertainty will influence the relationship between aid and investment and how recipient governments respond to aid, and will therefore affect how aid impacts on growth. We estimate a standard cross-country growth regression including the leveI of aid, and find aid to be insignificant (in line with other results in the literature). We then introduce measures of instability. Aid remains insignificant when we account for overall instability. However, when we account for uncertainty (which is negative and significant), we find that aid has a significant positive effect on growth. We conduct stability tests that show that the significance of aid is largely due to its effect on the volume of investment. The finding that uncertainty of aid receipts reduces the effectiveness of aid is robust. When we control for this, aid appears to have a significant positive influence on growth. When the regression is estimated for the sub-sample of African countries these findings hold, although the effectiveness of aid appears weaker than for the full sample.
Resumo:
This work evaluates empirically the Taylor rule for the US and Brazil using Kalman Filter and Markov-Switching Regimes. We show that the parameters of the rule change significantly with variations in both output and output gap proxies, considering hidden variables and states. Such conclusions call naturally for robust optimal monetary rules. We also show that Brazil and US have very contrasting parameters, first because Brazil presents time-varying intercept, second because of the rigidity in the parameters of the Brazilian Taylor rule, regardless the output gap proxy, data frequency or sample data. Finally, we show that the long-run inflation parameter of the US Taylor rule is less than one in many periods, contrasting strongly with Orphanides (forthcoming) and Clarida, Gal´i and Gertler (2000), and the same happens with Brazilian monthly data.