580 resultados para Benchmarks
Resumo:
This paper develops background considerations to help better framing the results of a CGE exercise. Three main criticisms are usually addressed to CGE efforts. First, they are too aggregate, their conclusions failing to shed light on relevant sectors or issues. Second, they imply huge data requirements. Timeliness is frequently jeopardised by out-dated sources, benchmarks referring to realities gone by. Finally, results are meaningless, as they answer wrong or ill-posed questions. Modelling demands end up by creating a rather artificial context, where the original questions lose content. In spite of a positive outlook on the first two, crucial questions lie in the third point. After elaborating such questions, and trying to answer some, the text argues that CGE models can come closer to reality. If their use is still scarce to give way to a fruitful symbiosis between negotiations and simulation results, they remain the only available technique providing a global, inter-related way of capturing economy-wide effects of several different policies. International organisations can play a major role supporting and encouraging improvements. They are also uniquely positioned to enhance information and data sharing, as well as putting people from various origins together, to share their experiences. A serious and complex homework is however required, to correct, at least, the most dangerous present shortcomings of the technique.
Resumo:
This paper investigates the impact of price limits on the Brazilian futures markets using high frequency data. The aim is to identify whether there is a cool-off or a magnet effect. For that purpose, we examine a tick-by-tick data set that includes all contracts on the S˜ao Paulo stock index futures traded on the Brazilian Mercantile and Futures Exchange from January 1997 to December 1999. The results indicate that the conditional mean features a floor cool-off effect, whereas the conditional variance significantly increases as the price approaches the upper limit. We then build a trading strategy that accounts for the cool-off effect in the conditional mean so as to demonstrate that the latter has not only statistical, but also economic significance. The in-sample Sharpe ratio indeed is way superior to the buy-and-hold benchmarks we consider, whereas out-of-sample results evince similar performances.
Resumo:
Electronic applications are currently developed under the reuse-based paradigm. This design methodology presents several advantages for the reduction of the design complexity, but brings new challenges for the test of the final circuit. The access to embedded cores, the integration of several test methods, and the optimization of the several cost factors are just a few of the several problems that need to be tackled during test planning. Within this context, this thesis proposes two test planning approaches that aim at reducing the test costs of a core-based system by means of hardware reuse and integration of the test planning into the design flow. The first approach considers systems whose cores are connected directly or through a functional bus. The test planning method consists of a comprehensive model that includes the definition of a multi-mode access mechanism inside the chip and a search algorithm for the exploration of the design space. The access mechanism model considers the reuse of functional connections as well as partial test buses, cores transparency, and other bypass modes. The test schedule is defined in conjunction with the access mechanism so that good trade-offs among the costs of pins, area, and test time can be sought. Furthermore, system power constraints are also considered. This expansion of concerns makes it possible an efficient, yet fine-grained search, in the huge design space of a reuse-based environment. Experimental results clearly show the variety of trade-offs that can be explored using the proposed model, and its effectiveness on optimizing the system test plan. Networks-on-chip are likely to become the main communication platform of systemson- chip. Thus, the second approach presented in this work proposes the reuse of the on-chip network for the test of the cores embedded into the systems that use this communication platform. A power-aware test scheduling algorithm aiming at exploiting the network characteristics to minimize the system test time is presented. The reuse strategy is evaluated considering a number of system configurations, such as different positions of the cores in the network, power consumption constraints and number of interfaces with the tester. Experimental results show that the parallelization capability of the network can be exploited to reduce the system test time, whereas area and pin overhead are strongly minimized. In this manuscript, the main problems of the test of core-based systems are firstly identified and the current solutions are discussed. The problems being tackled by this thesis are then listed and the test planning approaches are detailed. Both test planning techniques are validated for the recently released ITC’02 SoC Test Benchmarks, and further compared to other test planning methods of the literature. This comparison confirms the efficiency of the proposed methods.
Resumo:
Granting economic development incentives (or “EDIs”) has become commonplace throughout the United States, but the efficiency of these mechanisms is generally unwarranted. Both the politicians granting, and the companies seeking, EDIs have incentives to overestimate the EDIs benefits. For politicians, ribbon–cutting ceremonies can be the highly desirable opportunity to please political allies and financiers, and the same time that they demonstrate to the population that they are successful in promoting economic growth – even when the population would be better off otherwise. In turn, businesses are naturally prone to seek governmental aid. This explains in part why EDIs often “fail” (i.e. don’t pay–off). To increase transparency and mitigate the risk of EDI failure, local and state governments across the country have created a number of accountability mechanisms. The general trait of these accountability mechanisms is that they apply controls to some of the sub–risks that underlie the risk of EDI failure. These sub–risks include the companies receiving EDIs not generating the expected number of jobs, not investing enough in their local facilities, not attracting the expected additional businesses investments to the jurisdiction, etc. The problem with such schemes is that they tackle the problem of EDI failure very loosely. They are too narrow and leave multiplier effects uncontrolled. I propose novel contractual framework for implementing accountability mechanisms. My suggestion is to establish controls on the risk of EDI failure itself, leaving its underlying sub–risks uncontrolled. I call this mechanism “Contingent EDIs”, because the EDIs are made contingent on the government achieving a preset target that benchmarks the risk of EDI failure. If the target is met, the EDIs will ex post kick in; if not, then the EDIs never kick in.
Resumo:
Este trabalho estuda o comportamento do retorno dos fundos de Investimento de Renda Fixa no Brasil a partir de um modelo baseado na hipótese de que os fundos de Investimento Financeiro (FIF’s) e os Fundos de Aplicação em Cotas de FIF’s (FAC’s) estão diretamente ligados às seguintes variáveis: i) Bolsa (IBOVESPA), ii) Taxa de Juros (CDI) e iii) Câmbio (Dólar). No presente estudo, são investigados basicamente dois aspectos: a) a existência de uma relação entre a variação dos indicadores financeiros e a variação do retorno dos fundos e b) a alteração dos fatores explicativos do retorno dos fundos ao longo dos meses. Os resultados obtidos mostram que a grande maioria dos fundos obteve os retornos explicados por um, dois ou três benchmarks; logo, é possível interpretar a categoria de ativos de um fundo como exposição do desempenho de seu benchmark. No entanto, foi constatado que a escolha do benchmark mais adequado para um fundo de investimento depende do conhecimento da composição da carteira desse fundo. Assim, através de uma análise criteriosa dessas informações, o investidor deve estar convicto de que a política de investimentos de um determinado fundo o enquadra em uma determinada categoria. Além disso, ele deve ter a segurança necessária e suficiente de estar classificando seu(s) fundo(s) na categoria certa, e por via de conseqüência, comparar sua performance com base em seu risco associado, de forma justa e compatível com seu semelhante.
Resumo:
o presente trabalho apresenta um resumo não só dos conceitos básicos sobre fundos de investimento, como também seu histórico e evolução no Brasil e no mundo, o contexto institucional nacional e os principais ratings de classificação de performance. Sua parte empírica foca-se no exame do fenômeno de persistência de performance para os fundos de investimentos ativos brasileiros entre julho de 1996 e junho de 2001. o estudo empírico dividiu-se em três partes: a comparação do retomo das categorias de fundos de ações ativos, de renda fixa e multimercados com os respectivos benchmarks e fundos passivos; a verificação do fenômeno de persistência baseando-se em Malkiel (1995); e a análise dos resultados de investimentos em portfólios formados pelos grupos de uma mesma categoria pertecentes a um mesmo percentil de retomo não ajustado ao risco.
Resumo:
A evolução da Computação Baseada em Clusters, impulsionada pelo avanço tecnológico e pelo custo relativamente baixo do hardware de PCs, tem levado ao surgimento de máquinas paralelas de porte cada vez maior, chegando à ordem das centenas e mesmo milhares de nós de processamento. Um dos principais problemas na implantação de clusters desse porte é o gerenciamento de E/S, pois soluções centralizadas de armazenamento de arquivos, como o NFS, rapidamente se tornam o gargalo dessa parte do sistema. Ao longo dos últimos anos, diversas soluções para esse problema têm sido propostas, tanto pela utilização de tecnologias especializadas de armazenamento e comunicação, como RAID e fibra ótica, como pela distribuição das funcionalidades do servidor de arquivos entre várias máquinas, objetivando a paralelização de suas operações. Seguindo essa última linha, o projeto NFSP (NFS Parallèle) é uma proposta de sistema de arquivos distribuído que estende o NFS padrão de forma a aumentar o desempenho das operações de leitura de dados pela distribuição do serviço em vários nós do cluster. Com essa abordagem, o NFSP objetiva aliar desempenho e escalabilidade aos benefícios do NFS, como a estabilidade de sua implementação e familiaridade de usuários e administradores com sua semântica de uso e seus procedimentos de configuração e gerenciamento. A proposta aqui apresentada, chamada de dNFSP, é uma extensão ao NFSP com o objetivo principal de proporcionar melhor desempenho a aplicações que explorem tanto a leitura como a escrita de dados, uma vez que essa última característica não é contemplada pelo modelo original A base para o funcionamento do sistema é um modelo de gerenciamento distribuído de meta-dados, que permite melhor escalabilidade e reduz o custo computacional sobre o meta-servidor original do NFSP, e também um mecanismo relaxado de manutenção de coerência baseado em LRC (Lazy Release Consistency), o qual permite a distribuição do serviço sem acarretar em operações onerosas de sincronização de dados. Um protótipo do modelo dNFSP foi implementado e avaliado com uma série de testes, benchmarks e aplicações. Os resultados obtidos comprovam que o modelo pode ser aplicado como sistema de arquivos para um cluster, efetivamente proporcionando melhor desempenho às aplicações e ao mesmo tempo mantendo um elevado nível de compatibilidade com as ferramentas e procedimentos habituais de administração de um cluster, em especial o uso de clientes NFS padrões disponíveis em praticamente todos os sistemas operacionais da atualidade.
Resumo:
O objetivo desta tese é analisar, orientar e indicar algumas formas de mensuração de resultados das ações ou programas na área de Gestão de Pessoas ao longo dos anos, bem como de novas tendências no setor de agroenergia. O trabalho procura também propor práticas de planejamento estratégico e, indicadores para as organizações com foco no desenvolvimento e nas mudanças previstas nas organizações, no mercado de trabalho, nos modelos de gestão e de negócios do segmento de produção de cana-de-açúcar para os próximos anos. No estudo são analisados as transformações organizacionais, novos desafios competitivos do presente e do futuro, e a forma como a área de Recursos Humanos nas diversas organizações do setor, tem acompanhado tal processo, verificando o impacto dessas ações em um contexto de mudanças nos processos da cadeia agrícola (mecanização do plantio, colheita,.dentre outros), da cadeia industrial (biorefinarias, etanol de segunda geração, gaseificação...dentre outros), e no desenvolvimento organizacional e humano como parte integrante de um programa de sustentabilidade das organizações. São abordados metodologias, sistemas e ferramentas de planejamento estratégico, e mensuração propostas por certos autores que visam a demonstrar o impacto das estratégias e as ações na Gestão de Pessoas em direção ao cumprimento das metas e objetivos das organizações, em um cenário de forte crescimento interno e global do mercado de bioenergia. Nesse cenário, expõe-se e discute-se como as empresas do setor sucroalcooleiro utilizam, na prática, essas metodologias e os indicadores de performance da área frente às necessidades, e indicam-se as melhores práticas e ferramentas que visam a facilitar os processos decisórios, o uso de métricas de Recursos Humanos para previsão e acompanhamento do Capital Humano, e a otimização dos recursos e dos investimentos frente aos novos desafios do setor. Embora já se notem várias iniciativas visando a tornar a Gestão de Pessoas um fator estratégico para as organizações da agroenergia, a pesquisa identificou que a área de Recursos Humanos está evoluindo nessa direção e pode contribuir de forma efetiva para a melhor performance e sustentabilidade dos negócios. Palavras chaves: Cana-de Açúcar, Estratégia Organizacional, Capital Humano
Resumo:
Este artigo estuda a previsão da estrutura a termo da taxa de juros brasileira utilizando de fatores comuns extraídos de uma vasta base de séries macroeconômicas. Os períodos para estimação e previsão compreendem o intervalo de Janeiro de 2000 a Maio de 2012. Foram empregas 171 séries mensais para a construção da base. Primeiramente foi implementado o modelo proposto por Moench (2008), no qual a dinâmica da taxa de juros de curto prazo é modelada através de um FAVAR e a estrutura a termo é derivada utilizando-se de restrições implicadas por não arbitragem. A escolha pela adoção deste modelo se deve aos resultados obtidos no estudo original, nos quais tal modelagem apresentou melhor desempenho preditivo para horizontes intermediários e longos quando comparado com benchmarks usuais. Contudo, tais resultados também apresentaram uma deterioração progressiva à medida que as maturidades aumentam, evidenciando uma possível inadequação do modelo para as partes intermediária e longa da curva. A implementação deste modelo para a estrutura a termo brasileira levou a resultados muito similares ao do estudo original. Visando contornar a deterioração mencionada, foi proposta uma modelagem alternativa na qual a dinâmica de cada taxa é modelada conjuntamente com os fatores macroeconômicos, eliminando-se as restrições implicadas por não arbitragem. Tal modelagem proporcionou resultados de previsão amplamente superiores e através dela foi possível confirmar a inadequação descrita. Por fim, também foi realizada a inserção dos fatores macro na dinâmica dos fatores beta do modelo de Diebold e Li (2006), levando a um grande ganho de capacidade preditiva, principalmente para horizontes maiores de previsão.
Resumo:
Este trabalho contribui a discussão de diversificação internacional no contexto de investidores brasileiros com referência na moeda local (Reais). O trabalho testa as seguintes hipóteses: (1) se a adição de ativos internacionais não aumenta a eficiência (melhora na relação retorno/risco) de carteiras somente com ativos brasileiros, (2) se carteiras de menor risco exigem mais alocações internacionais e, (3) se alocação de ativos é parecida para investidores com referências em dólar ou em reais. Esse trabalho utiliza modelos já conhecidos de fronteiras eficientes com aplicação de técnicas que utilizam rotinas de Monte Carlo para suavizar possíveis erros na estimação dos retornos das classes de ativos, que incorporam ainda incertezas sobre o câmbio. Nas simulações são utilizadas uma cesta de ativos locais e uma cesta de ativos que melhor representa o mercado internacional. Apesar da grande maioria dos investidores brasileiros utilizarem muito pouco ativos internacionais em suas carteiras, seja por motivos de Home Bias, fatores históricos macroeconômicos evidenciados pelas altas taxas de juros ou limitações regulatórias, os resultados empíricos demonstram que existem ganhos de eficiência para as carteiras de investidores brasileiros ao se incluir ativos internacionais na alocação de ativos. Esses ganhos de eficiência são evidenciados para todos os perfis de risco, desde os mais conservadores até os perfis mais agressivos. Os resultados mostram que quanto maior o perfil de risco da carteira, maior é a alocação internacional que maximiza a eficiência da carteira. E por último, a referência da moeda muda significativamente a alocação eficiente de carteiras, carteiras com referência em dólar exigem menos diversificação com ativos em reais do que carteiras com referência em Reais exigem diversificação com ativos internacionais.
Resumo:
Esta tese é composta de três artigos que analisam a estrutura a termo das taxas de juros usando diferentes bases de dados e modelos. O capítulo 1 propõe um modelo paramétrico de taxas de juros que permite a segmentação e choques locais na estrutura a termo. Adotando dados do tesouro americano, duas versões desse modelo segmentado são implementadas. Baseado em uma sequência de 142 experimentos de previsão, os modelos propostos são comparados à benchmarks e concluí-se que eles performam melhor nos resultados das previsões fora da amostra, especialmente para as maturidades curtas e para o horizonte de previsão de 12 meses. O capítulo 2 acrescenta restrições de não arbitragem ao estimar um modelo polinomial gaussiano dinâmico de estrutura a termo para o mercado de taxas de juros brasileiro. Esse artigo propõe uma importante aproximação para a série temporal dos fatores de risco da estrutura a termo, que permite a extração do prêmio de risco das taxas de juros sem a necessidade de otimização de um modelo dinâmico completo. Essa metodologia tem a vantagem de ser facilmente implementada e obtém uma boa aproximação para o prêmio de risco da estrutura a termo, que pode ser usada em diferentes aplicações. O capítulo 3 modela a dinâmica conjunta das taxas nominais e reais usando um modelo afim de não arbitagem com variáveis macroeconômicas para a estrutura a termo, afim de decompor a diferença entre as taxas nominais e reais em prêmio de risco de inflação e expectativa de inflação no mercado americano. Uma versão sem variáveis macroeconômicas e uma versão com essas variáveis são implementadas e os prêmios de risco de inflação obtidos são pequenos e estáveis no período analisado, porém possuem diferenças na comparação dos dois modelos analisados.
Resumo:
This paper constructs new business cycle indices for Argentina, Brazil, Chile, and Mexico based on common dynamic factors extracted from a comprehensive set of sectoral output, external trade, fiscal and financial variables. The analysis spans the 135 years since the insertion of these economies into the global economy in the 1870s. The constructed indices are used to derive a business cyc1e chronology for these countries and characterize a set of new stylized facts. In particular, we show that ali four countries have historically displayed a striking combination of high business cyc1e volatility and persistence relative to advanced country benchmarks. Volatility changed considerably over time, however, being very high during early formative decades through the Great Depression, and again during the 1970s and ear1y 1980s, before declining sharply in three of the four countries. We also identify a sizeable common factor across the four economies which variance decompositions ascribe mostly to foreign interest rates and shocks to commodity terms of trade.
Resumo:
O objetivo primário deste trabalho é verificar se os fundos de investimento em ações brasileiros criaram valor, medido pelo alpha de Jensen, dentro do período selecionado. Em seguida, busca-se identificar os fatores determinantes dessa criação de valor. Utilizando a metodologia desenvolvida por Jensen (1968), inicialmente foram separados os fundos que geram alphas significativos dos que não geram. Os benchmarks de mercado utilizados foram Ibovespa e IBRx e as taxas livres de risco foram Taxa Selic, CDI e Poupança. A conclusão foi que os fundos de ações brasileiros, nos períodos estudados, não foram capazes de gerar alpha, independentemente do benchmark ou da taxa livre de risco. No entanto, os resultados foram piores quando comparados com o IBRx. Após esse processo, foi utilizada uma regressão cross section para encontrar quais as variáveis significativas para geração de alpha. Concluiu-se que quanto maior o fundo, maior o alpha gerado. No entanto, quanto mais velho o fundo e quanto maior a taxa de administração menor será o alpha gerado. Por fim, para gestores que geram alphas positivos, cada unidade adicional de risco gera valor e, para gestores com alpha negativo, cada unidade adicional de risco destrói valor
Resumo:
This study aims to contribute on the forecasting literature in stock return for emerging markets. We use Autometrics to select relevant predictors among macroeconomic, microeconomic and technical variables. We develop predictive models for the Brazilian market premium, measured as the excess return over Selic interest rate, Itaú SA, Itaú-Unibanco and Bradesco stock returns. We nd that for the market premium, an ADL with error correction is able to outperform the benchmarks in terms of economic performance. For individual stock returns, there is a trade o between statistical properties and out-of-sample performance of the model.
Resumo:
This study aims to contribute on the forecasting literature in stock return for emerging markets. We use Autometrics to select relevant predictors among macroeconomic, microeconomic and technical variables. We develop predictive models for the Brazilian market premium, measured as the excess return over Selic interest rate, Itaú SA, Itaú-Unibanco and Bradesco stock returns. We find that for the market premium, an ADL with error correction is able to outperform the benchmarks in terms of economic performance. For individual stock returns, there is a trade o between statistical properties and out-of-sample performance of the model.