84 resultados para CODIGOS CORRETORES DE ERROS

em Repositório digital da Fundação Getúlio Vargas - FGV


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho é avaliar a eficiência da precificação e os erros de aderência dos Exchange Traded Funds (ETFs), conhecidos no mercado de capitais como fundos de investimentos abertos listados e comercializados em bolsas de valores. Para esta avaliação, são realizados testes sobre hipóteses acerca da significância estatística dos mispricings entre (1) os valores das cotas patrimoniais e os preços de fechamentos destes ETFs e (2) sobre a diferença entre os preços de fechamento dos ETFs e dos seus índices de referência. A amostra utilizada é dos oito ETFs comercializados no mercado brasileiro de capitais durante o período de realização do trabalho. Como resultado do esforço de pesquisa realizado, o último capítulo mostra uma tendência a distintos níveis de eficiência da precificação e erros de aderência nos ETFs brasileiros. Enquanto alguns ETFs mais líquidos apresentam prêmios/descontos insignificantes estatisticamente, os prêmios/descontos de outros ETFs se mostraram razoavelmente consideráveis. No que tange aos erros de aderência, a média dos erros do ETFs listados localmente mostrou-se em um patamar intermediário entre aqueles ETFs listados no mercado americano e os de uma seleção de ETFs listados em mercados emergentes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho estima a transmissão da variação cambial aos índices de preços brasileiros, utilizando a metodologia de vetores autorregressivos estruturais (SVAR) com vetores de correção de erros (VEC). O período estudado tem início na introdução do regime de metas para a inflação (junho de 1999) e se encerra em setembro de 2011. Os resultados reforçam a avaliação de que houve amadurecimento da política monetária nos últimos anos, concomitantemente a uma melhora do ambiente macroeconômico. Na comparação dos nossos resultados com estudos anteriores, encontramos significativa redução do pass-through da taxa de câmbio para os índices de inflação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo do presente trabalho é verificar se o modelo que combina correção de erros e fatores extraídos de grandes conjuntos de dados macroeconômicos produz previsões mais precisas das taxas de juros do Brasil em relação aos modelos VAR, VECM e FAVAR. Para realizar esta análise, foi utilizado o modelo sugerido por Banerjee e Marcellino (2009), o FAVECM, que consiste em agregar o mecanismo de correção de erros ao modelo proposto por Bernanke, Boivin e Eliasz (2005), o FAVAR. A hipótese é que o FAVECM possuiu uma formulação teórica mais geral. Os resultados mostram que para o mercado brasileiro o FAVECM apresentou ganhos significativos de previsão para as taxas mais longas e horizontes de previsão maiores.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este artigo estima a transmissão da variação cambial aos índices de preços brasileiros, utilizando a metodologia de vetores autorregressivos estruturais (SVAR) com vetores de correção de erros (VEC). O período estudado tem início na introdução do regime de metas para a inflação (junho de 1999) e se encerra em setembro de 2011. Os resultados reforçam a avaliação de que houve amadurecimento da política monetária nos últimos anos, concomitantemente a uma melhora do ambiente macroeconômico. Na comparação dos nossos resultados com estudos anteriores, encontramos significativa redução do pass-through da taxa de câmbio para os índices de inflação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tradicionalmente, pesquisa na área de metodologia da Ciência Econômica consiste em estudar as implicações de teorias epistemológicas para Economia, sem se preocupar muito com que os economistas realmente fazem. Uma abordagem mais moderna procura lançar um olhar mais reflexivo sobre atividade dos economistas. Isto é, parte-se do que os economistas realmente fazem e, depois, empreende-se uma análise filosófica. Neste contexto, formação filosófica conhecimento teórico possuem mesma importância para produção científica em Metodologia. Adicionalmente, cumpre notar que são poucos os trabalhos que procuram analisar as contribuições mais recentes Teoria Econômica, lançando olhar da Metodologia para fronteira da ciência. Assim, novas correntes novas áreas da Economia carecem de uma avaliação epistemológica, ainda que vaga preliminar. escolha de temas já consagrados pode ser explicada pela segurança de explorar, sob um ponto de vista metodológico, um corpo de conhecimento científico coeso pouco mutável. Desse modo, análise não corre grande risco de se tornar anacrônica ou de ser parcial. Por outro lado, esquecimento da fronteira do conhecimento desvia atenção da relação entre processo de construção da teoria e a comunidade científica. risco da escolha de um tema mais de vanguarda é a superação da análise rapidamente pelo tempo, superfícialidade por falta de elementos mais sedimentados os erros de julgamento a respeito do que relevante. Apesar disso, os frutos de uma aventura no terreno movediço do saber econômico parecem mais que compensar eventuais pecados na análise metodológica dos temas considerados. Um outro ponto importante forma com que os temas vinculados tradição Neoclássica são tratados, no Brasil, pelos metodologistas da ciência econômica. Com efeito, existem trabalhos sobre Equilíbrio Geral Arrow-Debreu, todavia muito poucos procuram incorporar elementos tais como incerteza, dinâmica, formação de expectativas, os quais robustecem aproximam Modelo tradicional Arrow-Debreu da realidade. Assim, ao considerar apenas Teoria de Equilíbrio Geral Estática já consagrada, muitas críticas metodológicas perdem sua força quando observação feita um nível mais abrangente, considerando as contribuições mais modernas. presente trabalho uma contribuição Metodologia, todavia procura responder às críticas esboçadas nos parágrafos precedentes. De fato, trata-se de uma análise metodológica que toma como ponto de partida contribuições próximas fronteira do conhecimento, que estão vinculadas tradição Neoclássica, sem contudo constituir uma Teoria de Equilíbrio de Mercados. De resto, trabalho faz um pouco de História do Pensamento recente ao escolher Ronald Coase como fio condutor da exposição, além de conter algumas resenhas dos temas considerados. trabalho toma forma de três ensaios. primeiro se concentra na obra de Ronald Coase,e usa arcabouço da Indeterminação de Sênior para avaliar contribuição deste pensador para Economia. segundo consiste numa resenha seletiva das modernas contribuições Teoria da Firma, qual usada como elemento para construção de uma análise metodológica, que busca estabelecer as conexões entre trabalho pioneiro de Coase sobre natureza da firma, e as contribuições posteriores esse tema. questão saber qual influência das concepções de Ronald Coase sobre trabalhos posteriores que buscam explicar que firma. possível estabelecer uma relação de continuidade entre as idéias originais de Coase esses desdobramentos posteriores? Quais os limites dessa relação? Até que ponto as contribuições mais novas sobre teoria da firma descendem de Coase terceiro ensaio realiza uma exposição sumária de três Modelos na área da Economia das Instituições Jurídicas ("Law and Economics"), onde Coase também foi um pioneiro, em seguida, usando os modelos como exemplos estilizados, procura discutir forma como as instituições estão sendo incorporadas Teoria Econômica, suas implicações para relação entre Economia outras Ciências Sociais. guisa de conclusão, vale enfatizar convicção de que pesquisa em Metodologia da Ciência um terreno rico, desde que foco de análise fique mais abrangente procure avaliar não só os fundamentos as Teorias já consagradas como também novas áreas, novas abordagens contribuições de ponta, as quais, efetivamente movimentam Pesquisa em Economia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um dos primeiros papers a encontrar uma tendência clara de reversão no retorno das ações no longo prazo, De Bondt e Thaler (1985) identificaram o padrão encontrado como fruto de um comportamento irracional dos investidores que eles denominaram de “overreaction”. Seus resultados foram interpretados como evidência de que existem erros sistemáticos de avaliação no mercado de ações causada pelo excessivo pessimismo/otimismo dos agentes. Neste caso uma estratégia contrária baseada na compra dos portfólios perdedores e venda dos portfólios vencedores deveria gerar retornos extraordinários. A evidência encontrada para uma amostra de ações negociadas na Bovespa e na Soma durante o período de janeiro de 1986 a julho de 2000 corrobora esta hipótese tanto no longo prazo quanto no curto prazo, mesmo depois de se controlar para diferenças de tamanho, risco e liquidez.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com base na literatura internacional, testa-se o desempenho de alguns Drivers de Valor comumente utilizados para avaliação de empresas pelos práticos em finanças através de modelos de regressão simples do tipo cross-section que estimam os Múltiplos de Mercado (?'s dos modelos). Utilizando dados de empresas listadas na Bolsa de Valores de São Paulo-Bovespa, diagnostica-se o comportamento dos diversos múltiplos no decorrer do período entre 1994-2004, atentando-se também para as particularidades das atividades desempenhadas pelas empresas da amostra (e seus possíveis impactos no desempenho de cada Driver de Valor) através de uma subseqüente análise com a separação das empresas da amostra em setores. Extrapolando os padrões de avaliação por múltiplos simples usados pelos analistas de empresas das principais instituições financeiras presentes no Brasil, verifica-se que a introdução de intercepto na formulação tradicional não oferece resultados satisfatórios na redução dos erros de apreçamento. Os resultados encontrados podem não ser genericamente representativos, dada a limitada disponibilidade de informações e as restrições impostas na obtenção da base de dados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A demanda pela responsabilidade corporativa nunca foi tão grande. A necessidade de aliar a governança corporativa a atividades de controle eficientes nunca foi tão clara. Essa dissertação tem como objetivo responder a questão sobre se a abordagem Top Down do Earnings at Risk pode ser considerada como compatível às demandas da Sarbanes Oxley, e adicionalmente, um método eficiente de gerenciamento de riscos para as empresas não financeiras. Baseado nos resultados que encontramos a abordagem Top Down do Earnings at Risk não atende às demandas impostas pela Sarbanes-Oxley. Embora a SOX atente para a eficácia e não para eficiência dos controles utilizados pelas empresas, decisões gerenciais baseadas neste método podem conduzir a empresa a possíveis erros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é proposta uma classe de modelos paramétricos para estrutura a termo de taxa de juros (ETTJ) em que diferentes segmentos possam ter características próprias, porém não independentes, o que é condizente com a teoria de preferências por Habitat. O modelo baseia-se em Bowsher & Meeks (2006) onde a curva é determinada por um spline cúbico nas yields latentes, mas difere no sentido de permitir diferentes funções de classe C2 entre os segmentos, ao invés de polinômios cúbicos. Em particular usa-se a especi cação de Nelson & Siegel, o que permite recuperar o modelo de Diebold & Li (2006) quando não há diferenciação entre os segmentos da curva. O modelo é testado na previsão da ETTJ americana, para diferentes maturidades da curva e horizontes de previsão, e os resultados fora da amostra são comparados aos modelos de referência nesta literatura. Adicionalmente é proposto um método para avaliar a robustez da capacidade preditiva do modelos. Ao considerar a métrica de erros quadráticos médios , os resultados são superiores à previsão dos modelos Random Walk e Diebold & Li, na maior parte das maturidades, para horizontes de 3, 6 , 9 e 12 meses.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O propósito deste estudo é analisar a capacidade dos modelos econométricos ARMA, ADL, VAR e VECM de prever inflação, a fim de verificar qual modelagem é capaz de realizar as melhores previsões num período de até 12 meses, além de estudar os efeitos da combinação de previsões. Dentre as categorias de modelos analisados, o ARMA (univariado) e o ADL (bivariado e multivariado), foram testados com várias combinações de defasagens. Foram realizadas previsões fora-da-amostra utilizando 3 períodos distintos da economia brasileira e os valores foram comparados ao IPCA realizado, a fim de verificar os desvios medidos através do EQM (erro quadrático médio). Combinações das previsões usando média aritmética, um método de média ponderada proposto por Bates e Granger (1969) e média ponderada através de regressão linear múltipla foram realizadas. As previsões também foram combinadas com a previsão do boletim FOCUS do Banco Central. O método de Bates e Granger minimiza a variância do erro da combinação e encontra uma previsão com variância do erro menor ou igual à menor variância dos erros das previsões individuais, se as previsões individuais forem não viesadas. A conclusão é que, com as técnicas de séries temporais utilizadas, alguns modelos individuais fornecem previsões com EQM relativamente baixos. Destacando-se, dentre eles, os modelos VAR e VECM. Porém, com a combinação de previsões os EQM obtidos são menores do que os das previsões individuais usadas para combinação. Na maioria dos casos, a combinação de previsões com o boletim FOCUS também melhorou significativamente os resultados e forneceu previsões com EQM menores do que os das previsões individuais, destacando-se, dentre os métodos de combinações utilizados, a combinação via regressão linear múltipla.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta técnicas econométricas de análise de séries temporais que permitem testar, empiricamente, hipóteses sobre a definição da dimensão geográfica de mercados relevantes. Estas técnicas são aplicadas ao mercado brasileiro de resinas termoplásticas polietilenos e polipropileno com o objetivo de obter subsídios para a correta caracterização de sua dimensão geográfica. Os resultados obtidos adicionam evidências no sentido de que estes mercados relevantes geográficos podem ser definidos como internacionais. A técnica da cointegração indica que existe uma relação estável de longo prazo entre os preços das resinas produzidas domesticamente e das resinas internalizadas. Desvios desta relação têm caráter transitório. Por intermédio da análise da decomposição de variância percebe-se que os erros de previsão dos valores das resinas domésticas passam a ser rapidamente explicados pelas variações ocorridas nos preços das resinas internalizadas, sendo que o oposto não ocorre, ou seja, os preços das resinas internalizadas são explicados primordialmente por seus próprios desvios. Por fim, a Técnica da causalidade de Granger aponta que apenas o preço das resinas internalizadas causa , no sentido de Granger, o preço das resinas domésticas. O oposto não é valido e as variações nos preços das resinas domésticas não adicionam capacidade de previsão dos preços das resinas internalizadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Existem divergências entre Lara Resende (1982) e Cysne (1993) sobre o que determinou o descumprimento das metas monetárias que serviram como um dos instrumentos de combate a inflação no PAEG. Para se entender o que de fato ocorreu, reconstruímos a oferta de moeda a partir das variáveis descritas por estes autores como relevantes na sua argumentação. Pelo descrito, tudo indicava uma mudança estrutural, mas, usando a técnica de Chow, ficou evidente que a mesma ocorreu com o advento do Plano Trienal, não com o PAEG. Para percebermos isto, trabalhamos com um período superior a implantação e execução do PAEG (1960:01 a 1968:12). Esta investigação demonstrou duas coisas: erros na utilização analítica (este é o caso do papel das reservas internacionais e mudança estrutural) e peso de argumentação desmedida (este é o caso do papel dado ao crédito concedido pela Autoridade Monetária via Banco do Brasil ao setor privado). Afora isto, o que se tem de concreto, é que a oferta de moeda não foi resultado de uma variável isolada, mas de um conjunto bem articulado que, apesar das suas diferenças de influência, produziram no período específico em que se tem o PAEG (não pelo PAEG), uma oferta de moeda cadente e fora das metas monetárias previstas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A motivação para este trabalho vem dos principais resultados de Carvalho e Schwartzman (2008), onde a heterogeneidade surge a partir de diferentes regras de ajuste de preço entre os setores. Os momentos setoriais da duração da rigidez nominal são su cientes para explicar certos efeitos monetários. Uma vez que concordamos que a heterogeneidade é relevante para o estudo da rigidez de preços, como poderíamos escrever um modelo com o menor número possível de setores, embora com um mínimo de heterogeneidade su ciente para produzir qualquer impacto monetário desejado, ou ainda, qualquer três momentos da duração? Para responder a esta questão, este artigo se restringe a estudar modelos com hazard-constante e considera que o efeito acumulado e a dinâmica de curto-prazo da política monetária são boas formas de se resumir grandes economias heterogêneas. Mostramos que dois setores são su cientes para resumir os efeitos acumulados de choques monetários, e economias com 3 setores são boas aproximações para a dinâmica destes efeitos. Exercícios numéricos para a dinâmica de curto prazo de uma economia com rigidez de informação mostram que aproximar 500 setores usando apenas 3 produz erros inferiores a 3%. Ou seja, se um choque monetário reduz o produto em 5%, a economia aproximada produzirá um impacto entre 4,85% e 5,15%. O mesmo vale para a dinâmica produzida por choques de nível de moeda em uma economia com rigidez de preços. Para choques na taxa de crescimento da moeda, a erro máximo por conta da aproximação é de 2,4%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this thesis, the basic research of Chase and Simon (1973) is questioned, and we seek new results by analyzing the errors of experts and beginners chess players in experiments to reproduce chess positions. Chess players with different levels of expertise participated in the study. The results were analyzed by a Brazilian grandmaster, and quantitative analysis was performed with the use of statistical methods data mining. The results challenge significantly, the current theories of expertise, memory and decision making in this area, because the present theory predicts piece on square encoding, in which players can recognize the strategic situation reproducing it faithfully, but commit several errors that the theory can¿t explain. The current theory can¿t fully explain the encoding used by players to register a board. The errors of intermediary players preserved fragments of the strategic situation, although they have committed a series of errors in the reconstruction of the positions. The encoding of chunks therefore includes more information than that predicted by current theories. Currently, research on perception, trial and decision is heavily concentrated on the idea of pattern recognition". Based on the results of this research, we explore a change of perspective. The idea of "pattern recognition" presupposes that the processing of relevant information is on "patterns" (or data) that exist independently of any interpretation. We propose that the theory suggests the vision of decision-making via the recognition of experience.