134 resultados para Finanças - Métodos estatísticos
em Repositório digital da Fundação Getúlio Vargas - FGV
Resumo:
Esta tese é composta de dois ensaios que aplicam a Teoria de Valores Extremos a finanças
Resumo:
A dissertação tem como principal objetivo a busca de evidências da existência de um componente determinístico no comportamento dos preços de certas ações negociadas na Bolsa de Valores de São Paulo (BOVESPA) e em índices amplos do mercado, tais como o Ibovespa e IBX e, como conseqüência, determinar se a Hipótese de Mercado Eficiente é válida para o mercado financeiro brasileiro. Um objetivo secundário é mostrar a aplicabilidade de técnicas interdisciplinares ao estudo de Finanças empíricas, técnicas essas que, desde sua incepção, já levam em consideração o fato de que os dados estudados não atendem ao requisito de normalidade e que as observações não são independentes entre si. Essa aplicabilidade já é largamente demonstrada em inúmeros estudos internacionais e diversas publicações no Brasil. Porém, o presente trabalho tentará aplicar uma estrutura analítica mais flexível e computacionalmente mais eficiente, utilizando ferramentas trazidas do campo da Teoria da Informação e avanços relativamente recentes da área.
Resumo:
As operações de alta frequência (High-Frequency Trading - HFT) estão crescendo cada vez mais na BOVESPA (Bolsa de Valores de São Paulo), porém seu volume ainda se encontra muito atrás do volume de operações similares realizadas em outras bolsas de relevância internacional. Este trabalho pretende criar oportunidades para futuras aplicações e pesquisas nesta área. Visando aplicações práticas, este trabalho foca na aplicação de um modelo que rege a dinâmica do livro de ordens a dados do mercado brasileiro. Tal modelo é construído com base em informações do próprio livro de ordens, apenas. Depois de construído o modelo, o mesmo é utilizado em uma simulação de uma estratégia de arbitragem estatística de alta frequência. A base de dados utilizada para a realização deste trabalho é constituída pelas ordens lançadas na BOVESPA para a ação PETR4.
Resumo:
From a financial perspective, this dissertation analyzes the Brazilian mutual fund industry performance for an average retail client. The most representative funds for the local population, that are the fixed income open-end ones, will be selected and their performance will be measured aiming to answer if clients of this industry obtained a proper return over their investments in the period between August 2010 and August 2013. A proper return will be understood as the preservation of the purchasing power of the individual´s savings, what is achieved with a positive performance of a mutual fund after discounting taxes, administrative fees and inflation. After obtaining an answer for the previous question, this dissertation will explore a possible alternative solution: Tesouro Direto, that is an example of a financial approach that could foster the disintermediation between savings and investments through electronic channels. New electronic platforms, with a broader scope, could be utilized to increase the efficiency of funding productive investments through better remunerating Brazilian savings. Tesouro Direto may point towards a new paradigm.
Resumo:
O presente trabalho utiliza os dados disponibilizados pela BM&FBovespa para analisar as ações da Petrobrás para os meses compreendidos entre julho e agosto de 2010 e outubro de 2008. Primeiramente, apresentamos uma discussão detalhada sobre a manipulação desses dados, na qual explicitamos a impossibilidade de se usar o mid-price quote devido ao número elevado de ofertas de compra/venda com preços muito elevados/baixos. Verificamos alguns dos fatos estilizados empíricos apontados por Cont (2001), entre outros consagrados na literatura de microestrutura. Em geral, os dados replicaram os fatos estilizados. Aplicamos o filtro proposto por Brownlees e Gallo (2006) às ações da Petrobrás e analisamos a sensibilidade do número de possíveis outliers encontrados pelo filtro a variação dos parâmetros desse filtro. Propomos utilizar o critério de Akaike para ordenar e selecionar modelos de duração condicional cujas amostras de duração possuem tamanhos distintos. Os modelos selecionados, nem sempre são aqueles em que os dados foram filtrados. Para o ajuste ACD (1,1), quando considerados apenas os modelos bem ajustados (resíduos não autocorrelacionados), o critério de Akaike indica como melhor modelo aquele em que os dados não foram filtrados.
Resumo:
O presente trabalho trata da importância do modelamento da dinâmica do livro de ordens visando a compreensão dessa microestrutura de mercado. Para tanto, objetiva aplicar as técnicas de modelamento do livro de ofertas utilizando o modelo estocástico proposto por Cont, Stoikov e Talreja (2010) ao mercado acionário brasileiro. Uma vez aplicado o modelo, analisamos os resultados obtidos sob a ótica de outros estudos empíricos, como Bouchaud et al. (2002). Após a estimação e análise dos resultados foram realizadas simulações para constatar se os parâmetros encontrados refletem a dinâmica do mercado local, para diferentes cenários de normalização do tamanho das ordens. Por fim, com a análise dos resultados encontrados, foi possível concluir, com algumas ressalvas, que o modelo proposto é válido para o mercado de ações brasileiro, assim como é apresentado o impacto da liquidez dos ativos na comparação aos parâmetros encontrados em outros mercados internacionais.
Resumo:
Neste trabalho é proposta uma classe de modelos paramétricos para estrutura a termo de taxa de juros (ETTJ) em que diferentes segmentos possam ter características próprias, porém não independentes, o que é condizente com a teoria de preferências por Habitat. O modelo baseia-se em Bowsher & Meeks (2006) onde a curva é determinada por um spline cúbico nas yields latentes, mas difere no sentido de permitir diferentes funções de classe C2 entre os segmentos, ao invés de polinômios cúbicos. Em particular usa-se a especi cação de Nelson & Siegel, o que permite recuperar o modelo de Diebold & Li (2006) quando não há diferenciação entre os segmentos da curva. O modelo é testado na previsão da ETTJ americana, para diferentes maturidades da curva e horizontes de previsão, e os resultados fora da amostra são comparados aos modelos de referência nesta literatura. Adicionalmente é proposto um método para avaliar a robustez da capacidade preditiva do modelos. Ao considerar a métrica de erros quadráticos médios , os resultados são superiores à previsão dos modelos Random Walk e Diebold & Li, na maior parte das maturidades, para horizontes de 3, 6 , 9 e 12 meses.
Resumo:
Este trabalho tem por objetivo avaliar a eficiência do mercado acionário brasileiro a partir de testes estatísticos, para posterior modelagem das séries de retorno das ações, utilizando os modelos ARMA, ARCH, GARCH, Modelo de Decomposição e, por final, VAR. Para este trabalho foram coletados dados intradiários, que são considerados dados de alta freqüência e menos suscetíveis a possíveis alterações na estrutura de mercado, tanto micro como macroeconômicos. Optou-se por trabalhar com dados coletados a cada cinco minutos, devido à baixa liquidez dos ativos no mercado financeiro (que poderia acarretar em dados ausentes para intervalos de tempo inferiores). As séries escolhidas foram: Petrobrás PN, Gerdau PN, Bradesco PN, Vale do Rio Doce PN e o índice Ibovespa, que apresentam grande representatividade do mercado acionário brasileiro para o período analisado. Com base no teste de Dickey-Fuller, verificou-se indícios que o mercado acionário brasileiro possa ser eficiente e, assim foi proposto modelos para as séries de retorno das ações anteriormente citadas.
Resumo:
Esta tese avalia o impacto dos principais atores recorrentes durante o processo de IPO, em particular, o venture capitalist, o underwriter, e o auditor, sobre as condições de comercialização das ações da empresa, capturado pelo bid-ask spread, a fração de investidores institucionais que investem na empresa, a dispersão de capital, entre outros. Além disso, este estudo também analisa alguns benefícios que os fundos de Venture Capital (VCs) fornecem às empresas que eles investem. Ele investiga o papel dos VCs em dificultar o gerenciamento de resultados em IPOs e quantifica o papel desempenhado por eles no desempenho operacional das empresas após sua oferta inicial de ações. No primeiro capítulo, os resultados indicam que as empresas inflam seus resultados principalmente nos períodos pré-IPO e do IPO. Quando nós controlamos para os quatro períodos diferentes do IPO, observamos que IPOs de empresas investidas por VCs apresentam significativamente menos gerenciamento de resultados no IPO e em períodos seguintes à orfeta inicial das ações, exatamente quando as empresas tendem a inflar mais seus lucros. Este resultado é robusto a diferentes métodos estatísticos e diferentes metodologias usadas para avaliar o gerenciamento de resultados. Além disso, ao dividir a amostra entre IPOs de empresas investidas e não investidas por VCs, observa-se que ambos os grupos apresentam gerenciamento de resultados. Ambas as subamostras apresentam níveis de gerenciamento de resultados de forma mais intensa em diferentes fases ao redor do IPO. Finalmente, observamos também que top underwriters apresentam menores níveis de gerenciamento de resultados na subamostra das empresas investidas por VCs. No segundo capítulo, verificou-se que a escolha do auditor, dos VCs, e underwriter pode indicar escolhas de longo prazo da empresa. Nós apresentamos evidências que as características do underwriter, auditor, e VC têm um impacto sobre as características das empresas e seu desempenho no mercado. Além disso, estes efeitos são persistentes por quase uma década. As empresas que têm um top underwriter e um auditor big-N no momento do IPO têm características de mercado que permanecem ao longo dos próximos 8 anos. Essas características são representadas por um número maior de analistas seguindo a empresa, uma grande dispersão da propriedade através de investidores institucionais, e maior liquidez através um bid-ask spread menor. Elas também são menos propensas a saírem do mercado, bem como mais propensas à emissão de uma orferta secundária. Finalmente, empresas investidas por VCs são positivamente afetadas, quando consideramos todas as medidas de liquidez de mercado, desde a abertura de capital até quase uma década depois. Tais efeitos não são devido ao viés de sobrevivência. Estes resultados não dependem da bolha dot-com, ou seja, os nossos resultados são qualitativamente similares, uma vez que excluímos o período da bolha de 1999-2000. No último capítulo foi evidenciado que empresas investidas por VCs incorrem em um nível mais elevado de saldo em tesouraria do que as empresas não investidas. Este efeito é persistente por pelo menos 8 anos após o IPO. Mostramos também que empresas investidas por VCs estão associadas a um nível menor de alavancagem e cobertura de juros ao longo dos primeiros oito anos após o IPO. Finalmente, não temos evidências estatisticamente significantes entre VCs e a razão dividendo lucro. Estes resultados também são robustos a diversos métodos estatísticos e diferentes metodologias.
Resumo:
The implications of diversity still raise confusion in the cultural debate. We address them from both a formal and conceptual viewpoints, putting in check the validity of some arguments. We conclude that: measuring diversity demands key decisions and careful statistical procedures; ignorance on optimal diversity levels and on ways to generate them is widespread in the cultural field; there is no support for cultural diversity as something associated to fair economic and political systems; restriction to sheer economics requires the establishment of links between diversity and measurable properties – something rather incipient. Diversity, as a social choice, should be distinguished from it as an economic value.
Resumo:
In this thesis, the basic research of Chase and Simon (1973) is questioned, and we seek new results by analyzing the errors of experts and beginners chess players in experiments to reproduce chess positions. Chess players with different levels of expertise participated in the study. The results were analyzed by a Brazilian grandmaster, and quantitative analysis was performed with the use of statistical methods data mining. The results challenge significantly, the current theories of expertise, memory and decision making in this area, because the present theory predicts piece on square encoding, in which players can recognize the strategic situation reproducing it faithfully, but commit several errors that the theory can¿t explain. The current theory can¿t fully explain the encoding used by players to register a board. The errors of intermediary players preserved fragments of the strategic situation, although they have committed a series of errors in the reconstruction of the positions. The encoding of chunks therefore includes more information than that predicted by current theories. Currently, research on perception, trial and decision is heavily concentrated on the idea of pattern recognition". Based on the results of this research, we explore a change of perspective. The idea of "pattern recognition" presupposes that the processing of relevant information is on "patterns" (or data) that exist independently of any interpretation. We propose that the theory suggests the vision of decision-making via the recognition of experience.
Resumo:
A partir da Constituição de 1988, houve crescimento expressivo na busca pela prestação jurisdicional, mas sem acréscimo proporcional na estrutura judiciária e sem a adequada alteração do sistema processual. O descompasso provocou o congestionamento da maioria dos órgãos judiciais. Atualmente, a morosidade é o problema mais grave enfrentado pelo Poder Judiciário brasileiro. Dentre as suas várias causas, somente as que têm relação com o modo de prestação do serviço podem ser enfrentadas internamente. Nesse contexto, a modernização da administração judiciária, baseada em informação estatística de qualidade, é a solução que se mostra viável. No Rio Grande do Sul, o aprimoramento do sistema de coleta de dados é condição indispensável para que o Tribunal de Justiça disponha de estatísticas adequadas de medição da produtividade individual e de indicadores de desempenho da instituição. A capacitação dos magistrados em técnicas estatísticas básicas também se faz necessária, a fim de que as informações fornecidas pelo sistema possam ser interpretadas corretamente, em benefício da administração do Poder Judiciário.
Resumo:
Trata do .problema de análise de dados na administração de negócios. Aborda as tecnologias de base estatística para análise de dados e informações e apoio ao processo decisório. Abrange o uso de tecnologia de delineamento de experimentos em diversas áreas da administração apresenta o uso de delineamento de experimentos (DOX) na filosofia de Taguchi, programa de qualidade Seis Sigma e na reengenharia de processos. Descreve a geração do conhecimento ou "inteligência" a partir da transformação de dados em informações e informações em conhecimento
Resumo:
Esta dissertação examina soluções para o controle estatístico em sistemas de produção que utilizam meios contínuos, onde freqüentemente os dados de análise apresentam o fenômeno da autocorrelação. A princípio são abordadas as técnicas de CEP tradicional (gráficos de Shewhart) para meios discretos, mostrando-se que estas técnicas não dão o resultado esperado quando utilizadas em processos contínuos, tanto em relação à amostragem como ao problema da autocorrelação. Em seguida são apresentadas outras soluções baseadas em técnicas mais recentes como EWMA e modelos autorregressivos, que tem uma melhor performance em meios contínuos. Damos os aspectos teóricos e exemplos de aplicação de cada solução obtida por consulta bibliográfica. Finalmente, é feita uma simulação comparativa das soluções citadas, baseandose em programação de macros e uso de software, para verificar o escopo e desempenho das soluções, sendo dadas recomendações sobre o seu uso, bem como sugestões para futuras pesquisas.
Resumo:
Esta tese apresenta o desenvolvimento conceitual, estimação de parâmetros e aplicação empírica de um Modelo de Risco de Portfólio cujo objetivo é realizar previsões da distribuição estatística da perda de crédito em carteiras de crédito ao consumidor. O modelo proposto é adaptado às características do crédito ao consumidor e ao mercado brasileiro, podendo ser aplicado com dados atualmente disponíveis para as Instituições Financeiras no mercado brasileiro. São realizados testes de avaliação da performance de previsão do modelo e uma comparação empírica com resultados da aplicação do Modelo CreditRisk+.