996 resultados para dados de painel
Resumo:
Resumo não disponível
Resumo:
Mandelbrot (1971) demonstrou a importância de considerar dependências de longo prazo na precificação de ativos - o método tradicional para mensurá-las, encontrado em Hurst (1951), faz uso da estatística R/S. Paralelamente a isso, Box e Jenkins (1976; edição original de 1970) apresentaram sua famosa metodologia para determinação da ordem dos parâmetros de modelos desenvolvidos no contexto de processos com memória de curto prazo, conhecidos por ARIMA (acrônimo do inglês Autoregressive Integrated Moving Average). Estimulados pela percepção de que um modelo que pretenda representar fielmente o processo gerador de dados deva explicar tanto a dinâmica de curto prazo quanto a de longo prazo, Granger e Joyeux (1980) e Hosking (1981) introduziram os modelos ARFIMA (de onde o F adicionado vem de Fractionally), uma generalização da classe ARIMA, nos quais a dependência de longo prazo estimada é relacionada ao valor do parâmetro de integração. Pode-se dizer que a partir de então processos com alto grau de persistência passaram a atrair cada vez mais o interesse de pesquisadores, o que resultou no desenvolvimento de outros métodos para estimá-la, porém sem que algum tenha se sobressaído claramente – e é neste ponto que o presente trabalho se insere. Por meio de simulações, buscou-se: (1) classificar diversos estimadores quanto a sua precisão, o que nos obrigou a; (2) determinar parametrizações razoáveis desses, entendidas aqui como aquelas que minimizam o viés, o erro quadrático médio e o desvio-padrão. Após rever a literatura sobre o tema, abordar estes pontos se mostrou necessário para o objetivo principal: elaborar estratégias de negociação baseadas em projeções feitas a partir da caracterização de dependências em dados intradiários, minuto a minuto, de ações e índices de ações. Foram analisadas as séries de retornos da ação Petrobras PN e do Índice Bovespa, com dados de 01/04/2013 a 31/03/2014. Os softwares usados foram o S-Plus e o R.
Resumo:
O presente trabalho utiliza os dados disponibilizados pela BM&FBovespa para analisar as ações da Petrobrás para os meses compreendidos entre julho e agosto de 2010 e outubro de 2008. Primeiramente, apresentamos uma discussão detalhada sobre a manipulação desses dados, na qual explicitamos a impossibilidade de se usar o mid-price quote devido ao número elevado de ofertas de compra/venda com preços muito elevados/baixos. Verificamos alguns dos fatos estilizados empíricos apontados por Cont (2001), entre outros consagrados na literatura de microestrutura. Em geral, os dados replicaram os fatos estilizados. Aplicamos o filtro proposto por Brownlees e Gallo (2006) às ações da Petrobrás e analisamos a sensibilidade do número de possíveis outliers encontrados pelo filtro a variação dos parâmetros desse filtro. Propomos utilizar o critério de Akaike para ordenar e selecionar modelos de duração condicional cujas amostras de duração possuem tamanhos distintos. Os modelos selecionados, nem sempre são aqueles em que os dados foram filtrados. Para o ajuste ACD (1,1), quando considerados apenas os modelos bem ajustados (resíduos não autocorrelacionados), o critério de Akaike indica como melhor modelo aquele em que os dados não foram filtrados.
Resumo:
Estimar e prever a volatilidade de um ativo é uma tarefa muito importante em mercados financeiros. Nosso objetivo neste trabalho é propor o conceito de deformação temporal neste contexto. A idéia é que o mercado modifica-se com a chegada de novas informações, e não com o decorrer do tempo de calendário. Nós estimamos a volatilidade dos retornos do IBOVESPA, aplicando Modelos de Volatilidade Estocástica sem e com Deformação Temporal.
Resumo:
This research attempts to analyze the effects of open government data on the administration and practice of the educational process by comparing the contexts of Brazil and England. The findings illustrate two principal dynamics: control and collaboration. In the case of control, or what is called the "data-driven" paradigm, data help advance the cause of political accountability through the disclosure of school performance. In collaboration, or what is referred to as the "data-informed" paradigm, data is intended to support the decision-making process of administrators through dialogical processes with other social actors.
Resumo:
No início de março, a Fundação Getulio Vargas esteve presente no Seminário Internacional Cooperação Ibero-Americana e Desenvolvimento, co-patrocinado pela DAPP-FGV, que aconteceu em Madri e abordou o tema da cooperação e integração econômica entre o subcontinente latino-americano e a Península Ibérica, considerando as questões políticas comuns e o papel de organismos multilaterais.
Resumo:
A concessão de crédito bancário demanda esforço do agente credor que se dedica de forma ativa na obtenção de informações relativas à firma, até então não disponíveis ao público. Dado o hold up power do banco detentor de informações não públicas, este deveria poder cobrar spreads mais altos do que seria justificado unicamente pelo risco de crédito do tomador ao longo dos ciclos econômicos, sendo tal dinâmica mais acentuada em cenários de crise. Testa-se aqui esta hipótese e para isso são comparadas as variações do spread bancário médio da dívida de empresas brasileiras com diferentes composições de endividamento, levando-se em conta sua dependência do crédito bancário. Foram criadas: i) uma variável dummy identificando o acesso ao crédito direto para que se pudesse avaliar o seu efeito nos spreads; ii) outra dummy identificando cenários de recessão que permite avaliar o impacto do ciclo econômico nos spreads e iii) dummy interação que viabilizou o estudo do efeito combinado das duas variáveis anteriores. Fatores de risco individuais da firma, tais como tamanho, nível de alavancagem e sua natureza em termos de restrição a crédito foram controlados na análise. Os dados foram organizados em painel com os quais foi montada regressão linear valendo-se da técnica Estimated Generalized Least Squares (EGLS), alternativa ao Least Squares (LS) clássico. Encontrou-se evidência estatística de que em cenários de recessão econômica o acesso ao mercado direto de crédito traz efeito benéfico sobre os spreads bancários pagos pelas firmas.
Resumo:
O dado e a informação passaram a ser vistos como recursos essenciais e ativos preciosos das organizações. Nas últimas décadas, as empresas investiram maciçamente em projetos de Tecnologia da Informação (TI) que visavam ter uma melhor gestão dos seus dados com o propósito de ganhar vantagem competitiva. Apesar de ter evoluído, trata-se de um assunto não totalmente resolvido: as organizações continuam em busca de soluções que, efetivamente, organizem seus dados de maneira íntegra e garantam seu crescimento sustentável. Esta pesquisa pretendeu investigar, sob a ótica dos atores envolvidos nas grandes projetos de organização, integração, gestão, governança dos dados na empresa, o efeito que o histórico dessas iniciativas proporcionou em uma instituição de grande porte nacional. A partir da análise iterativa do ciclo de negociação dos grupos constituídos pelos atores envolvidos, além de tentar traçar a trajetória em que se deu essa história de dados na empresa, também se pretendeu investigar a dinâmica presente nas iniciativas e o quanto ela, por meio dos stakeholders envolvidos, influencia nas iniciativas atualmente existentes na organização. Para suportar esse objetivo, o trabalho se baseou nas categorias conceituais da Abordagem Multinível (DINIZ; POZZEBON; JAYO, 2009; POZZEBON; DINIZ, 2012) – Contexto, Processo e Conteúdo, identificando os Grupos Sociais Relevantes que interagiram no processo de negociação para implantação da tecnologia, na busca pela melhor solução de dados que atendesse à empresa em um mercado em constante movimento e na tomada de decisões que direcionam a prática deste processo. Tratou-se de um estudo exploratório realizado com entrevistas semiestruturadas com gestores de TI e negócios envolvidos que tiveram alguma interação ou influência com algumas iniciativas na empresa. A análise dos resultados revela aspectos que poderão contribuir de forma a deixar cada vez mais evidente a interferência dos stakeholders nas soluções de tecnologia e o quanto isso pode ser uma ameaça para o uso efetivo do dado como um ativo da empresa e, assim, garantir sua sobrevivência e seu desenvolvimento, caso os incentivos não estejam alinhados.