122 resultados para Impressoras (Processamento de dados)
Resumo:
Essa dissertação analisa as compras de medicamentos registradas no Banco de Preços em Saúde do Ministério da Saúde com o objetivo de avaliar o quão diferentes são os preços pagos pelo setor público e pelo setor privado quando estes adquirem o mesmo bem. Adicionalmente, são testados se a experiência formação de consórcios municipais de saúde afetam os preços pagos pela aquisição de medicamentos por parte de instituições municipais e se as compras originadas em demandas judiciais têm efeito sobre o preço unitário. A análise aponta, respectivamente, para evidências de que as compras públicas são mais caras, que as instituições municipais são mais eficientes e que as compras originadas por demandas judiciais são mais caras.
Resumo:
Esta tese se dedica ao estudo de modelos de fixação de preços e suas implicações macroeconômicas. Nos primeiros dois capítulos analiso modelos em que as decisões das firmas sobre seus preços praticados levam em conta custos de menu e de informação. No Capítulo 1 eu estimo tais modelos empregando estatísticas de variações de preços dos Estados Unidos, e concluo que: os custos de informação são significativamente maiores que os custos de menu; os dados claramente favorecem o modelo em que informações sobre condições agregadas são custosas enquanto que as idiossincráticas têm custo zero. No Capítulo 2 investigo as consequências de choques monetários e anúncios de desinflação usando os modelos previamente estimados. Mostro que o grau de não-neutralidade monetária é maior no modelo em que parte da informação é grátis. O Capítulo 3 é um artigo em conjunto com Carlos Carvalho (PUC-Rio) e Antonella Tutino (Federal Reserve Bank of Dallas). No artigo examinamos um modelo de fixação de preços em que firmas estão sujeitas a uma restrição de fluxo de informação do tipo Shannon. Calibramos o modelo e estudamos funções impulso-resposta a choques idiossincráticos e agregados. Mostramos que as firmas vão preferir processar informações agregadas e idiossincráticas conjuntamente ao invés de investigá-las separadamente. Este tipo de processamento gera ajustes de preços mais frequentes, diminuindo a persistência de efeitos reais causados por choques monetários.
Resumo:
A desoneração da folha é constituída pela eliminação da contribuição previdenciária patronal incidente sobre a folha de pagamento dos funcionários e pela adoção de uma nova contribuição previdenciária sobre a receita bruta das empresas. Um dos objetivos desta mudança, listados pelo Governo Federal do Brasil no programa Brasil Maior, é reduzir os custos de produção dos setores beneficiados através da diminuição da carga tributária, contribuindo, assim, para a geração de empregos e formalização de mão de obra. O objetivo deste trabalho, portanto, é estimar o impacto desta medida sobre a geração de empregos formais e também sobre o salário médio dos trabalhadores nos primeiros setores beneficiados, que foram, principalmente, Tecnologia da Informação (e Comunicação), Couro e Calçados, Vestuário e Têxtil, Hotéis e Call Center. Para isto, aplicou-se a metodologia econométrica difference-in-differences nos dados da Relação Anual de Informações Sociais (RAIS), disponibilizados pelo Ministério do Trabalho. Os resultados sugerem principalmente que a desoneração da folha de pagamentos parece ter gerado empregos apenas para o setor Tecnologia da Informação (e Comunicação), assim como aumento do salário médio dos empregados deste setor. Outro resultado interessante é que para o setor de Call Center o impacto em termos de emprego não foi significativo, mas a lei parece ter contribuído para um aumento do salário no setor.
Resumo:
Em 2000, o governo federal aprovou uma lei que permitiu aos Estados fixarem pisos salariais acima do salário mínimo. Os Estados do Rio de Janeiro e Rio Grande do Sul adotaram tal lei em 2001. Utilizando dados de painel da Pesquisa Mensal de Emprego de 2000 e 2001, encontramos um baixo cumprimento da lei nestes Estados. Adicionalmente, obtivemos evidências de efeito nulo sobre o nível de emprego. Estes resultados indicam um alto descumprimento da legislação devido a uma baixa efetividade da lei, como sugerido pela teoria.
Resumo:
Este artigo usa dados agregados brasileiros para estimar a demanda domiciliar por telefones fixos. Com relação à literatura prévia sobre o tema, podem ser ressaltados três avanços metodológicos: (i) o caráter não-linear da escolha individual é preservado no modelo agregado; (ii) a agregação é feita de modo a considerar o viés gerado pela heterogeneidade entre os indivíduos dentro das regiões; (iii) é usada uma matriz de covariância robusta à presença de dependência espacial [Driscoll & Kraay (1998)]. Percebe-se que a consideração do viés de agregação altera significativamente os resultados. Além disso, simulações construídas a partir das estimativas encontradas indicam que a redução da assinatura básica em 50% aumentaria em apenas 3,3% os domicílios brasileiros com telefone fixo. Este impacto modesto é provavelmente resultado do comportamento dos domicílios de baixa renda. Em grande parte destes domicílios, existe somente um tipo de telefone, móvel ou fixo. Nesse caso, mesmo com uma redução significativa da assinatura do telefone fixo, boa parte deles ainda deve optar pelo telefone móvel, na medida em que este último, além de garantir mobilidade, tende a comprometer uma parcela menor da renda mensal.
Resumo:
A presente monografia tem como objeto a análise dos possíveis impactos causados no campo da Propriedade Intelectual oriundos do desenvolvimento da tecnologia de impressão 3D. Este trabalho se estrutura em torno de três grandes seções. A primeira visa à apresentação das impressoras 3D ao leitor, descrevendo um pouco de sua história e, também, suas aplicações. A segunda expõe os principais contornos jurídicos que caracterizam a Propriedade Intelectual e os direitos dela decorrentes, relacionando-os com a impressão 3D. Na última seção, por fim, realiza-se uma reflexão quanto aos desafios apresentados no decorrer do texto e, também, a apresentação de situações que indicam possíveis rumos para a interação entre a tecnologia em questão e a Propriedade Intelectual.
Resumo:
Mandelbrot (1971) demonstrou a importância de considerar dependências de longo prazo na precificação de ativos - o método tradicional para mensurá-las, encontrado em Hurst (1951), faz uso da estatística R/S. Paralelamente a isso, Box e Jenkins (1976; edição original de 1970) apresentaram sua famosa metodologia para determinação da ordem dos parâmetros de modelos desenvolvidos no contexto de processos com memória de curto prazo, conhecidos por ARIMA (acrônimo do inglês Autoregressive Integrated Moving Average). Estimulados pela percepção de que um modelo que pretenda representar fielmente o processo gerador de dados deva explicar tanto a dinâmica de curto prazo quanto a de longo prazo, Granger e Joyeux (1980) e Hosking (1981) introduziram os modelos ARFIMA (de onde o F adicionado vem de Fractionally), uma generalização da classe ARIMA, nos quais a dependência de longo prazo estimada é relacionada ao valor do parâmetro de integração. Pode-se dizer que a partir de então processos com alto grau de persistência passaram a atrair cada vez mais o interesse de pesquisadores, o que resultou no desenvolvimento de outros métodos para estimá-la, porém sem que algum tenha se sobressaído claramente – e é neste ponto que o presente trabalho se insere. Por meio de simulações, buscou-se: (1) classificar diversos estimadores quanto a sua precisão, o que nos obrigou a; (2) determinar parametrizações razoáveis desses, entendidas aqui como aquelas que minimizam o viés, o erro quadrático médio e o desvio-padrão. Após rever a literatura sobre o tema, abordar estes pontos se mostrou necessário para o objetivo principal: elaborar estratégias de negociação baseadas em projeções feitas a partir da caracterização de dependências em dados intradiários, minuto a minuto, de ações e índices de ações. Foram analisadas as séries de retornos da ação Petrobras PN e do Índice Bovespa, com dados de 01/04/2013 a 31/03/2014. Os softwares usados foram o S-Plus e o R.
Resumo:
O presente trabalho utiliza os dados disponibilizados pela BM&FBovespa para analisar as ações da Petrobrás para os meses compreendidos entre julho e agosto de 2010 e outubro de 2008. Primeiramente, apresentamos uma discussão detalhada sobre a manipulação desses dados, na qual explicitamos a impossibilidade de se usar o mid-price quote devido ao número elevado de ofertas de compra/venda com preços muito elevados/baixos. Verificamos alguns dos fatos estilizados empíricos apontados por Cont (2001), entre outros consagrados na literatura de microestrutura. Em geral, os dados replicaram os fatos estilizados. Aplicamos o filtro proposto por Brownlees e Gallo (2006) às ações da Petrobrás e analisamos a sensibilidade do número de possíveis outliers encontrados pelo filtro a variação dos parâmetros desse filtro. Propomos utilizar o critério de Akaike para ordenar e selecionar modelos de duração condicional cujas amostras de duração possuem tamanhos distintos. Os modelos selecionados, nem sempre são aqueles em que os dados foram filtrados. Para o ajuste ACD (1,1), quando considerados apenas os modelos bem ajustados (resíduos não autocorrelacionados), o critério de Akaike indica como melhor modelo aquele em que os dados não foram filtrados.
Resumo:
Estimar e prever a volatilidade de um ativo é uma tarefa muito importante em mercados financeiros. Nosso objetivo neste trabalho é propor o conceito de deformação temporal neste contexto. A idéia é que o mercado modifica-se com a chegada de novas informações, e não com o decorrer do tempo de calendário. Nós estimamos a volatilidade dos retornos do IBOVESPA, aplicando Modelos de Volatilidade Estocástica sem e com Deformação Temporal.
Resumo:
This research attempts to analyze the effects of open government data on the administration and practice of the educational process by comparing the contexts of Brazil and England. The findings illustrate two principal dynamics: control and collaboration. In the case of control, or what is called the "data-driven" paradigm, data help advance the cause of political accountability through the disclosure of school performance. In collaboration, or what is referred to as the "data-informed" paradigm, data is intended to support the decision-making process of administrators through dialogical processes with other social actors.