997 resultados para Colapso de dados


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este artigo usa dados agregados brasileiros para estimar a demanda domiciliar por telefones fixos. Com relação à literatura prévia sobre o tema, podem ser ressaltados três avanços metodológicos: (i) o caráter não-linear da escolha individual é preservado no modelo agregado; (ii) a agregação é feita de modo a considerar o viés gerado pela heterogeneidade entre os indivíduos dentro das regiões; (iii) é usada uma matriz de covariância robusta à presença de dependência espacial [Driscoll & Kraay (1998)]. Percebe-se que a consideração do viés de agregação altera significativamente os resultados. Além disso, simulações construídas a partir das estimativas encontradas indicam que a redução da assinatura básica em 50% aumentaria em apenas 3,3% os domicílios brasileiros com telefone fixo. Este impacto modesto é provavelmente resultado do comportamento dos domicílios de baixa renda. Em grande parte destes domicílios, existe somente um tipo de telefone, móvel ou fixo. Nesse caso, mesmo com uma redução significativa da assinatura do telefone fixo, boa parte deles ainda deve optar pelo telefone móvel, na medida em que este último, além de garantir mobilidade, tende a comprometer uma parcela menor da renda mensal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mandelbrot (1971) demonstrou a importância de considerar dependências de longo prazo na precificação de ativos - o método tradicional para mensurá-las, encontrado em Hurst (1951), faz uso da estatística R/S. Paralelamente a isso, Box e Jenkins (1976; edição original de 1970) apresentaram sua famosa metodologia para determinação da ordem dos parâmetros de modelos desenvolvidos no contexto de processos com memória de curto prazo, conhecidos por ARIMA (acrônimo do inglês Autoregressive Integrated Moving Average). Estimulados pela percepção de que um modelo que pretenda representar fielmente o processo gerador de dados deva explicar tanto a dinâmica de curto prazo quanto a de longo prazo, Granger e Joyeux (1980) e Hosking (1981) introduziram os modelos ARFIMA (de onde o F adicionado vem de Fractionally), uma generalização da classe ARIMA, nos quais a dependência de longo prazo estimada é relacionada ao valor do parâmetro de integração. Pode-se dizer que a partir de então processos com alto grau de persistência passaram a atrair cada vez mais o interesse de pesquisadores, o que resultou no desenvolvimento de outros métodos para estimá-la, porém sem que algum tenha se sobressaído claramente – e é neste ponto que o presente trabalho se insere. Por meio de simulações, buscou-se: (1) classificar diversos estimadores quanto a sua precisão, o que nos obrigou a; (2) determinar parametrizações razoáveis desses, entendidas aqui como aquelas que minimizam o viés, o erro quadrático médio e o desvio-padrão. Após rever a literatura sobre o tema, abordar estes pontos se mostrou necessário para o objetivo principal: elaborar estratégias de negociação baseadas em projeções feitas a partir da caracterização de dependências em dados intradiários, minuto a minuto, de ações e índices de ações. Foram analisadas as séries de retornos da ação Petrobras PN e do Índice Bovespa, com dados de 01/04/2013 a 31/03/2014. Os softwares usados foram o S-Plus e o R.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho utiliza os dados disponibilizados pela BM&FBovespa para analisar as ações da Petrobrás para os meses compreendidos entre julho e agosto de 2010 e outubro de 2008. Primeiramente, apresentamos uma discussão detalhada sobre a manipulação desses dados, na qual explicitamos a impossibilidade de se usar o mid-price quote devido ao número elevado de ofertas de compra/venda com preços muito elevados/baixos. Verificamos alguns dos fatos estilizados empíricos apontados por Cont (2001), entre outros consagrados na literatura de microestrutura. Em geral, os dados replicaram os fatos estilizados. Aplicamos o filtro proposto por Brownlees e Gallo (2006) às ações da Petrobrás e analisamos a sensibilidade do número de possíveis outliers encontrados pelo filtro a variação dos parâmetros desse filtro. Propomos utilizar o critério de Akaike para ordenar e selecionar modelos de duração condicional cujas amostras de duração possuem tamanhos distintos. Os modelos selecionados, nem sempre são aqueles em que os dados foram filtrados. Para o ajuste ACD (1,1), quando considerados apenas os modelos bem ajustados (resíduos não autocorrelacionados), o critério de Akaike indica como melhor modelo aquele em que os dados não foram filtrados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Estimar e prever a volatilidade de um ativo é uma tarefa muito importante em mercados financeiros. Nosso objetivo neste trabalho é propor o conceito de deformação temporal neste contexto. A idéia é que o mercado modifica-se com a chegada de novas informações, e não com o decorrer do tempo de calendário. Nós estimamos a volatilidade dos retornos do IBOVESPA, aplicando Modelos de Volatilidade Estocástica sem e com Deformação Temporal.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This research attempts to analyze the effects of open government data on the administration and practice of the educational process by comparing the contexts of Brazil and England. The findings illustrate two principal dynamics: control and collaboration. In the case of control, or what is called the "data-driven" paradigm, data help advance the cause of political accountability through the disclosure of school performance. In collaboration, or what is referred to as the "data-informed" paradigm, data is intended to support the decision-making process of administrators through dialogical processes with other social actors.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O dado e a informação passaram a ser vistos como recursos essenciais e ativos preciosos das organizações. Nas últimas décadas, as empresas investiram maciçamente em projetos de Tecnologia da Informação (TI) que visavam ter uma melhor gestão dos seus dados com o propósito de ganhar vantagem competitiva. Apesar de ter evoluído, trata-se de um assunto não totalmente resolvido: as organizações continuam em busca de soluções que, efetivamente, organizem seus dados de maneira íntegra e garantam seu crescimento sustentável. Esta pesquisa pretendeu investigar, sob a ótica dos atores envolvidos nas grandes projetos de organização, integração, gestão, governança dos dados na empresa, o efeito que o histórico dessas iniciativas proporcionou em uma instituição de grande porte nacional. A partir da análise iterativa do ciclo de negociação dos grupos constituídos pelos atores envolvidos, além de tentar traçar a trajetória em que se deu essa história de dados na empresa, também se pretendeu investigar a dinâmica presente nas iniciativas e o quanto ela, por meio dos stakeholders envolvidos, influencia nas iniciativas atualmente existentes na organização. Para suportar esse objetivo, o trabalho se baseou nas categorias conceituais da Abordagem Multinível (DINIZ; POZZEBON; JAYO, 2009; POZZEBON; DINIZ, 2012) – Contexto, Processo e Conteúdo, identificando os Grupos Sociais Relevantes que interagiram no processo de negociação para implantação da tecnologia, na busca pela melhor solução de dados que atendesse à empresa em um mercado em constante movimento e na tomada de decisões que direcionam a prática deste processo. Tratou-se de um estudo exploratório realizado com entrevistas semiestruturadas com gestores de TI e negócios envolvidos que tiveram alguma interação ou influência com algumas iniciativas na empresa. A análise dos resultados revela aspectos que poderão contribuir de forma a deixar cada vez mais evidente a interferência dos stakeholders nas soluções de tecnologia e o quanto isso pode ser uma ameaça para o uso efetivo do dado como um ativo da empresa e, assim, garantir sua sobrevivência e seu desenvolvimento, caso os incentivos não estejam alinhados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nos últimos anos, o mundo vem assistindo a um maior número de mobilizações sociais, que ocorrem em todo o espectro de regimes de governo e níveis de desenvolvimento econômico: de países tradicionalmente democráticos e desenvolvidos, a países em desenvolvimento sob regimes autoritários. Tais mobilizações vêm ocorrendo simultaneamente a uma expansão acelerada das Tecnologias da Informação e Comunicação (TIC), mais notadamente o avanço da Internet e dos telefones celulares (ITU, 2014; CETIC, 2013), tornando mais rápido e fácil o acesso e difusão de informações sem o intermédio dos meios de comunicação de massa tradicionais; há os que defendem que o contexto de cada nação é o grande responsável por tais manifestações, enquanto outros citam a importância tanto das TIC quanto dos fatores contextuais como influenciadores. O objetivo desta pesquisa é identificar as variáveis explicativas da ocorrência de protestos, considerando aspectos tecnológicos, sociais e políticos, por meio da construção de modelos utilizando dados em painel. Para tal são utilizados dados do Banco Mundial, Fórum Econômico Mundial e ITU, desenvolvendo uma amostra de 124 países. O resultado desta análise revela que o percentual de usuários de Internet influencia positivamente a ocorrência de protestos e que países desenvolvidos possuem maior a chance de apresentarem manifestações.