73 resultados para Imputação de dados
Resumo:
A desoneração da folha é constituída pela eliminação da contribuição previdenciária patronal incidente sobre a folha de pagamento dos funcionários e pela adoção de uma nova contribuição previdenciária sobre a receita bruta das empresas. Um dos objetivos desta mudança, listados pelo Governo Federal do Brasil no programa Brasil Maior, é reduzir os custos de produção dos setores beneficiados através da diminuição da carga tributária, contribuindo, assim, para a geração de empregos e formalização de mão de obra. O objetivo deste trabalho, portanto, é estimar o impacto desta medida sobre a geração de empregos formais e também sobre o salário médio dos trabalhadores nos primeiros setores beneficiados, que foram, principalmente, Tecnologia da Informação (e Comunicação), Couro e Calçados, Vestuário e Têxtil, Hotéis e Call Center. Para isto, aplicou-se a metodologia econométrica difference-in-differences nos dados da Relação Anual de Informações Sociais (RAIS), disponibilizados pelo Ministério do Trabalho. Os resultados sugerem principalmente que a desoneração da folha de pagamentos parece ter gerado empregos apenas para o setor Tecnologia da Informação (e Comunicação), assim como aumento do salário médio dos empregados deste setor. Outro resultado interessante é que para o setor de Call Center o impacto em termos de emprego não foi significativo, mas a lei parece ter contribuído para um aumento do salário no setor.
Resumo:
Em 2000, o governo federal aprovou uma lei que permitiu aos Estados fixarem pisos salariais acima do salário mínimo. Os Estados do Rio de Janeiro e Rio Grande do Sul adotaram tal lei em 2001. Utilizando dados de painel da Pesquisa Mensal de Emprego de 2000 e 2001, encontramos um baixo cumprimento da lei nestes Estados. Adicionalmente, obtivemos evidências de efeito nulo sobre o nível de emprego. Estes resultados indicam um alto descumprimento da legislação devido a uma baixa efetividade da lei, como sugerido pela teoria.
Resumo:
Este artigo usa dados agregados brasileiros para estimar a demanda domiciliar por telefones fixos. Com relação à literatura prévia sobre o tema, podem ser ressaltados três avanços metodológicos: (i) o caráter não-linear da escolha individual é preservado no modelo agregado; (ii) a agregação é feita de modo a considerar o viés gerado pela heterogeneidade entre os indivíduos dentro das regiões; (iii) é usada uma matriz de covariância robusta à presença de dependência espacial [Driscoll & Kraay (1998)]. Percebe-se que a consideração do viés de agregação altera significativamente os resultados. Além disso, simulações construídas a partir das estimativas encontradas indicam que a redução da assinatura básica em 50% aumentaria em apenas 3,3% os domicílios brasileiros com telefone fixo. Este impacto modesto é provavelmente resultado do comportamento dos domicílios de baixa renda. Em grande parte destes domicílios, existe somente um tipo de telefone, móvel ou fixo. Nesse caso, mesmo com uma redução significativa da assinatura do telefone fixo, boa parte deles ainda deve optar pelo telefone móvel, na medida em que este último, além de garantir mobilidade, tende a comprometer uma parcela menor da renda mensal.
Resumo:
Mandelbrot (1971) demonstrou a importância de considerar dependências de longo prazo na precificação de ativos - o método tradicional para mensurá-las, encontrado em Hurst (1951), faz uso da estatística R/S. Paralelamente a isso, Box e Jenkins (1976; edição original de 1970) apresentaram sua famosa metodologia para determinação da ordem dos parâmetros de modelos desenvolvidos no contexto de processos com memória de curto prazo, conhecidos por ARIMA (acrônimo do inglês Autoregressive Integrated Moving Average). Estimulados pela percepção de que um modelo que pretenda representar fielmente o processo gerador de dados deva explicar tanto a dinâmica de curto prazo quanto a de longo prazo, Granger e Joyeux (1980) e Hosking (1981) introduziram os modelos ARFIMA (de onde o F adicionado vem de Fractionally), uma generalização da classe ARIMA, nos quais a dependência de longo prazo estimada é relacionada ao valor do parâmetro de integração. Pode-se dizer que a partir de então processos com alto grau de persistência passaram a atrair cada vez mais o interesse de pesquisadores, o que resultou no desenvolvimento de outros métodos para estimá-la, porém sem que algum tenha se sobressaído claramente – e é neste ponto que o presente trabalho se insere. Por meio de simulações, buscou-se: (1) classificar diversos estimadores quanto a sua precisão, o que nos obrigou a; (2) determinar parametrizações razoáveis desses, entendidas aqui como aquelas que minimizam o viés, o erro quadrático médio e o desvio-padrão. Após rever a literatura sobre o tema, abordar estes pontos se mostrou necessário para o objetivo principal: elaborar estratégias de negociação baseadas em projeções feitas a partir da caracterização de dependências em dados intradiários, minuto a minuto, de ações e índices de ações. Foram analisadas as séries de retornos da ação Petrobras PN e do Índice Bovespa, com dados de 01/04/2013 a 31/03/2014. Os softwares usados foram o S-Plus e o R.
Resumo:
O presente trabalho utiliza os dados disponibilizados pela BM&FBovespa para analisar as ações da Petrobrás para os meses compreendidos entre julho e agosto de 2010 e outubro de 2008. Primeiramente, apresentamos uma discussão detalhada sobre a manipulação desses dados, na qual explicitamos a impossibilidade de se usar o mid-price quote devido ao número elevado de ofertas de compra/venda com preços muito elevados/baixos. Verificamos alguns dos fatos estilizados empíricos apontados por Cont (2001), entre outros consagrados na literatura de microestrutura. Em geral, os dados replicaram os fatos estilizados. Aplicamos o filtro proposto por Brownlees e Gallo (2006) às ações da Petrobrás e analisamos a sensibilidade do número de possíveis outliers encontrados pelo filtro a variação dos parâmetros desse filtro. Propomos utilizar o critério de Akaike para ordenar e selecionar modelos de duração condicional cujas amostras de duração possuem tamanhos distintos. Os modelos selecionados, nem sempre são aqueles em que os dados foram filtrados. Para o ajuste ACD (1,1), quando considerados apenas os modelos bem ajustados (resíduos não autocorrelacionados), o critério de Akaike indica como melhor modelo aquele em que os dados não foram filtrados.
Resumo:
Estimar e prever a volatilidade de um ativo é uma tarefa muito importante em mercados financeiros. Nosso objetivo neste trabalho é propor o conceito de deformação temporal neste contexto. A idéia é que o mercado modifica-se com a chegada de novas informações, e não com o decorrer do tempo de calendário. Nós estimamos a volatilidade dos retornos do IBOVESPA, aplicando Modelos de Volatilidade Estocástica sem e com Deformação Temporal.
Resumo:
This research attempts to analyze the effects of open government data on the administration and practice of the educational process by comparing the contexts of Brazil and England. The findings illustrate two principal dynamics: control and collaboration. In the case of control, or what is called the "data-driven" paradigm, data help advance the cause of political accountability through the disclosure of school performance. In collaboration, or what is referred to as the "data-informed" paradigm, data is intended to support the decision-making process of administrators through dialogical processes with other social actors.
Resumo:
O dado e a informação passaram a ser vistos como recursos essenciais e ativos preciosos das organizações. Nas últimas décadas, as empresas investiram maciçamente em projetos de Tecnologia da Informação (TI) que visavam ter uma melhor gestão dos seus dados com o propósito de ganhar vantagem competitiva. Apesar de ter evoluído, trata-se de um assunto não totalmente resolvido: as organizações continuam em busca de soluções que, efetivamente, organizem seus dados de maneira íntegra e garantam seu crescimento sustentável. Esta pesquisa pretendeu investigar, sob a ótica dos atores envolvidos nas grandes projetos de organização, integração, gestão, governança dos dados na empresa, o efeito que o histórico dessas iniciativas proporcionou em uma instituição de grande porte nacional. A partir da análise iterativa do ciclo de negociação dos grupos constituídos pelos atores envolvidos, além de tentar traçar a trajetória em que se deu essa história de dados na empresa, também se pretendeu investigar a dinâmica presente nas iniciativas e o quanto ela, por meio dos stakeholders envolvidos, influencia nas iniciativas atualmente existentes na organização. Para suportar esse objetivo, o trabalho se baseou nas categorias conceituais da Abordagem Multinível (DINIZ; POZZEBON; JAYO, 2009; POZZEBON; DINIZ, 2012) – Contexto, Processo e Conteúdo, identificando os Grupos Sociais Relevantes que interagiram no processo de negociação para implantação da tecnologia, na busca pela melhor solução de dados que atendesse à empresa em um mercado em constante movimento e na tomada de decisões que direcionam a prática deste processo. Tratou-se de um estudo exploratório realizado com entrevistas semiestruturadas com gestores de TI e negócios envolvidos que tiveram alguma interação ou influência com algumas iniciativas na empresa. A análise dos resultados revela aspectos que poderão contribuir de forma a deixar cada vez mais evidente a interferência dos stakeholders nas soluções de tecnologia e o quanto isso pode ser uma ameaça para o uso efetivo do dado como um ativo da empresa e, assim, garantir sua sobrevivência e seu desenvolvimento, caso os incentivos não estejam alinhados.