996 resultados para Econometria de dados em painel
Resumo:
A América Latina é a região com mais elevado nível de desigualdade de renda do mundo. Nos anos 90, a discussão acerca da relação entre crescimento econômico e desigualdade de renda é retomada com mais intensidade em virtude do desempenho econômico com equidade apresentado pelos países do Leste Asiático. Parte da literatura encontra que a desigualdade de renda afeta negativamente o desempenho econômico do países. Partindo desse resultado, ela busca os canais pelos quais essa relação de daria. No entanto, no final dos anos 90, outro conjunto de estudos passa a questionar tal resultado, com o uso de dados de melhor qualidade para a distribuição de renda, bem como outras técnicas econométricas. A partir daí, o foco da dissertação será a avaliação da relação entre crescimento econômico e desigualdade de renda para um conjunto menor de países. E avaliamos também, a possibilidade de verificarmos a hipótese da curva de Kuznets para a região. A análise econométrica, seguindo os moldes da literatura mais recente, foi desenvolvida com base em um painel de 13 países latino-americanos no período entre 1970 e 1995, considerando sub-períodos de 5 anos. O exercício empírico revelou que os resultados encontrados na dissertação estão na linha dos trabalhos mais recentes na área e confirmam, para um conjunto menor de países, especificamente da América Latina, a relação positiva que há entre desigualdade e crescimento e a hipótese de Kuznets.
Resumo:
Pesquisa o uso de indicadores para avaliação do desempenho de serviços de informação tecnológica, sob a ótica da abordagem centrada no usuário. Tem por objetivo principal propor um conjunto de indicadores de desempenho que sejam aplicáveis à mensuração e à gestão dos serviços brasileiros de informação tecnológica, com foco no cliente-usuário. O referencial teórico engloba aspectos referentes à informação tecnológica, serviços de informação, gestão da qualidade, avaliação de serviços, métrica e indicadores. Faz uma análise de documentos sobre indicadores de desempenho aplicados à Sociedade do Conhecimento, Ciência e Tecnologia, Inovação Tecnológica, Tomada de Decisão e Unidades de Informação. Define a Norma Internacional ISO 11620 e o EQUINOX como os documentos base para a seleção dos indicadores de desempenho propostos à análise de especialistas. Utiliza, para o levantamento dos dados, a técnica Delphi, tendo como instrumento o questionário. O questionário é aplicado em duas ocasiões, em dez (10) especialistas, que avaliam cada questão proposta. As questões, em número de vinte e cinco (25), referem-se aos indicadores de desempenho selecionados pela pesquisadora. Estes indicadores são analisados pelos especialistas sob os aspectos pertinência, relevância e viabilidade, a partir de uma escala de atitude, os quais justificam suas escolhas. A cada rodada, o painel de especialistas recebe, como feedback, os aportes da rodada anterior. Esta interação permite um reposicionamento de cada um dos participantes, reposicionamento este que se reflete nas respostas da rodada seguinte. Como produto final da pesquisa , gera-se uma relação de vinte e dois (22) indicadores considerados pela maioria dos especialistas como os mais pertinentes e relevantes. Conclui com a análise dos aportes dos especialistas e da técnica metodológica utilizada. Recomenda o uso de indicadores de desempenho pelos serviços de informação tecnológica; a promoção de ações que visem sensibilizar órgãos de pesquisa e organismos governamentais quanto à sua utilização; o incentivo à implementação, junto aos cursos de Ciência da Informação, de conteúdos sobre avaliação por indicadores. Completamenta com a relação de outros indicadores propostos pelo painel de especialistas. Sugere novos temas de estudo, relacionados ao desenvolvido.
Resumo:
Este trabalho versa sobre a avaliação da compressão de dados e da qualidade de imagens e animações usando-se complexidade de Kolmogorov, simulação de máquinas e distância de informação. Complexidade de Kolmogorov é uma teoria da informação e da aleatoriedade baseada na máquina de Turing. No trabalho é proposto um método para avaliar a compressão de dados de modelos de animação gráfica usando-se simulação de máquinas. Também definimos formalmente compressão de dados com perdas e propomos a aplicação da distância de informação como uma métrica de qualidade de imagem. O desenvolvimento de uma metodologia para avaliar a compressão de dados de modelos de animação gráfica para web é útil, a medida que as páginas na web estão sendo cada vez mais enriquecidas com animações, som e vídeo, e a economia de banda de canal tornase importante, pois os arquivos envolvidos são geralmente grandes. Boa parte do apelo e das vantagens da web em aplicações como, por exemplo, educação à distância ou publicidade, reside exatamente na existência de elementos multimídia, que apoiam a idéia que está sendo apresentada na página. Como estudo de caso, o método de comparação e avaliação de modelos de animação gráfica foi aplicado na comparação de dois modelos: GIF (Graphics Interchange Format) e AGA (Animação Gráfica baseada em Autômatos finitos), provando formalmente que AGA é melhor que GIF (“melhor” significa que AGA comprime mais as animações que GIF). Foi desenvolvida também uma definição formal de compressão de dados com perdas com o objetivo de estender a metodologia de avalição apresentada Distância de informação é proposta como uma nova métrica de qualidade de imagem, e tem como grande vantagem ser uma medida universal, ou seja, capaz de incorporar toda e qualquer medida computável concebível. A métrica proposta foi testada em uma série de experimentos e comparada com a distância euclidiana (medida tradicionalmente usada nestes casos). Os resultados dos testes são uma evidência prática que a distância proposta é efetiva neste novo contexto de aplicação, e que apresenta, em alguns casos, resultados superiores ao da distância euclidiana. Isto também é uma evidência que a distância de informação é uma métrica mais fina que a distância euclidiana. Também mostramos que há casos em que podemos aplicar a distância de informação, mas não podemos aplicar a distância euclidiana. A métrica proposta foi aplicada também na avaliação de animações gráficas baseadas em frames, onde apresentou resultados melhores que os obtidos com imagens puras. Este tipo de avaliação de animações é inédita na literatura, segundo revisão bibliográfica feita. Finalmente, neste trabalho é apresentado um refinamento à medida proposta que apresentou resultados melhores que a aplicação simples e direta da distância de informação.
Resumo:
A presente dissertação teve como objetivo analisar de modo abrangente e preciso as relações entre poupança pública e crescimento econômico, motivada pela importância do estudo para o entendimento dos fatores incentivadores do desenvolvimento e pela quase absoluta originalidade do tema. Depois de uma revisão analítica de modelos de crescimento econômico investigativos dos impactos do setor público sobre as taxas de desenvolvimento, análise teórico-descritiva das relações entre poupança pública e crescimento mostrou que a poupança é um indicador de sustentabilidade fiscal mais completo do que o superávit primário e tende a apresentar efeitos mais positivos sobre o comportamento do produto do que o superávit operacional. A subseqüente análise econométrica dos efeitos da poupança pública sobre o crescimento econômico baseou-se em hipóteses retiradas do exame descritivo da evolução de algumas variáveis públicas e da taxa de crescimento per capita para uma série de países, estimando modelos de regressão múltipla para um painel de 38 nações, entre desenvolvidas e em desenvolvimento. As equações estimadas e os testes de robustez dos resultados comprovaram, a elevados níveis de confiança, a hipótese de relação positiva entre as taxas de poupança pública e de crescimento econômico per capita, além de fornecerem resultados interessantes e consistentes sobre a forma de associação do desenvolvimento a outras variáveis. A conclusão central foi que um aumento de uma unidade na taxa de poupança pública deve levar, em média, a uma elevação de 0,17 unidades na taxa de crescimento econômico per capita, reforçando o argumento de que um importante indicador fiscal a ser monitorado pelos governos com o objetivo de atingir taxas mais elevadas de crescimento sem descuidar de suas finanças é a poupança pública.
Resumo:
Cláusulas de fidelidade e políticas de fidelização são elementos comuns nos debates sobre como intensificar o comprometimento dos associados com sua cooperativa. A literatura acadêmica já apresentou diversos fatores que podem influenciar o comprometimento/fidelidade dos associados. Entretanto, poucas respostas foram dadas quanto à influência que o desenho institucional da cooperativa pode ter no comprometimento ou na fidelidade dos seus associados. Por meio das informações disponíveis no banco de dados do PDICOOPs – que conta com dados em formato de painel para os anos de 1989, 1992 e 2000 -, esta dissertação avalia empiricamente os determinantes do comprometimento dos associados com a cooperativa, tendo como foco os efeitos dos custos e benefícios da ação coletiva, propósito da organização cooperativa. Adicionalmente, esta dissertação investiga se o nível de comprometimento dos associados tem efeitos sobre o desempenho da cooperativa.
Resumo:
A alta gerência do banco de varejo (PRINCIPAL) necessita delegar autoridade a gerentes de níveis inferiores (AGENTES) sob a existência de interesses conflitantes, informações assimétricas e a impossibilidade de monitoração completa. Um sistema de metas e incentivos é adotado de modo a induzir estes agentes na direção dos interesses do principal. O objetivo deste trabalho é avaliar a relação causal existente entre o chamado “contrato de salário variável garantido” e o desempenho dos agentes. Isto é, investigar de que forma a aplicação deste contrato implícito, que promove uma substancial mudança no sistema de incentivos diretos, afeta o desempenho destes agentes. Analisamos econometricamente dados de jan.2007 a jun.2009 obtidos junto a um grande banco de varejo nacional através de um estimador de efeitos fixos para um painel de dados não balanceado. Os resultados indicam que os agentes sujeitos ao contrato de salário variável garantido têm um desempenho inferior aos agentes sujeitos a remuneração variável. Concluímos que não podemos descartar existência do problema de risco moral no comportamento dos agentes sujeitos a este contrato.
Resumo:
Estudos empíricos sobre os determinantes de investimentos privados em países em desenvolvimento, incluindo vários estudos para o Brasil, mostraram o impacto negativo de elevadas taxas de inflação sobre os investimentos privados. No entanto, a experiência brasileira recente mostra claramente que a estabilização por si só não é capaz de fazer com que as taxas de investimento se recuperem. Este trabalho objetiva a busca de respostas em evidências empíricas sobre quais teriam sido os principais fatores responsáveis pela não recuperação dos investimentos no Brasil pós-plano Real, apesar do controle inflacionário, no período 1995-2004. Para isso, foi estimado um modelo de investimento privado em nível de longo prazo (1970-2003) com dados anuais. Estas estimações mostram evidência empírica de crowding-in dos investimentos públicos em infra-estrutura sobre os investimentos privados e do efeito de crowding-out dos demais investimentos públicos (que não são em infra-estrutura) sobre os investimentos privados. Para obter evidências empíricas do impacto negativo da carga tributária e dos preços relativos dos bens de capital sobre as taxas de investimento foi estimado um modelo trimestral com dados de 1995-2004. Uma análise mais detalhada sobre a carga tributária brasileira e sua composição mostrou ainda que, além de sua magnitude elevada, a carga tributária brasileira tem uma alocação desfavorável ao investimento privado, pois seu peso é muito maior sobre o setor produtivo do que sobre renda e patrimônio. Além disso, a despeito da arrecadação crescente nos últimos 10 anos, os gastos do governo têm se concentrado em gastos pouco ou não produtivos e tem diminuído a participação relativa dos investimentos públicos em infra-estrutura, que são gastos produtivos e estimuladores de investimentos privados (efeito de crowding-in).
Resumo:
This thesis has three chapters. Chapter 1 explores literature about exchange rate pass-through, approaching both empirical and theoretical issues. In Chapter 2, we formulate an estate space model for the estimation of the exchange rate pass-through of the Brazilian Real against the US Dollar, using monthly data from August 1999 to August 2008. The state space approach allows us to verify some empirical aspects presented by economic literature, such as coe cients inconstancy. The estimates o ffer evidence that the pass-through had variation over the observed sample. The state space approach is also used to test whether some of the "determinants" of pass-through are related to the exchange rate pass-through variations observed. According to our estimates, the variance of the exchange rate pass-through, monetary policy and trade ow have infuence on the exchange rate pass-through. The third and last chapter proposes the construction of a coincident and leading indicator of economic activity in the United States of America. These indicators are built using a probit state space model to incorporate the deliberations of the NBER Dating Cycles Committee regarding the state of the economy in the construction of the indexes. The estimates o ffer evidence that the NBER Committee weighs the coincident series (employees in nonagricultural payrolls, industrial production, personal income less transferences and sales) di fferently way over time and between recessions. We also had evidence that the number of employees in nonagricultural payrolls is the most important coincident series used by the NBER to de fine the periods of recession in the United States.
Resumo:
Este trabalho apresenta a montagem de uma instalação fotovoltaica de 4,8 kWp conectada à rede elétrica e uma análise experimental do seu comportamento, com o propósito de otimizar o fator de dimensionamento. Para fins de análise comparativa a instalação foi dividida em três subsistemas com arranjos de potências diferentes, os quais possuem fatores de dimensionamentos de 0,65, 0,73 e 0,86 (razão entre a potência nominal do inversor e a potência do gerador fotovoltaico), respectivamente para os subsistemas 1, 2 e 3. Cada subsistema possui um arranjo formado por dois painéis que utilizam módulos de 100 Wp/24 V, com células de silício monocristalino. Estes arranjos alimentam, de forma independente, três inversores senoidais monofásicos comutados pela própria rede e com potência máxima na saída de 1100 W cada um, caracterizando desta forma uma planta modular. O sistema de aquisição de dados monitora sistematicamente a instalação a uma varredura por minuto, a fim de se obter um acompanhamento ao longo do tempo e poder caracterizá-la. São monitoradas as tensões elétricas de cada painel de módulos e as suas correspondentes correntes, as tensões elétricas e as correntes alternadas, as potências elétricas contínuas e alternadas, a irradiância no plano do gerador, as temperaturas do ar ambiente, de um módulo do gerador e dos inversores. A metodologia de análise desta instalação consiste no monitoramento, na caracterização e na quantificação das medidas adquiridas, com a finalidade de determinar correlações que possam predizer a potência injetada na rede bem como a determinação da performance energética para dias típicos ensolarados, parcialmente nublados e encobertos. A divisão da instalação em três subsistemas permitiu caracterizá-los quanto aos seus comportamentos energéticos, além de possibilitar a análise de arranjos superdimensionados, os quais fornecem uma potência superior a máxima na entrada dos inversores, originando desperdício de energia nos momentos de elevada irradiância. O método desenvolvido para determinar a energia perdida na entrada dos inversores possibilitou avaliar o quanto se perde mensalmente nos subsistemas 1 e 2, uma vez que as perdas de captura e de sistema aumentam quando o arranjo está superdimensionado e isto significa uma redução na produtividade. Com as correlações encontradas para cada subsistema e com a equação geral foi possível predizer o quanto de energia pode ser injetada na rede.
Resumo:
Sistemas de informações geográficas (SIG) permitem a manipulação de dados espaço-temporais, sendo bastante utilizados como ferramentas de apoio à tomada de decisão. Um SIG é formado por vários módulos, dentre os quais o banco de dados geográficos (BDG), o qual é responsável pelo armazenamento dos dados. Apesar de representar, comprovadamente, uma fase importante no projeto do SIG, a modelagem conceitual do BDG não tem recebido a devida atenção. Esse cenário deve-se principalmente ao fato de que os profissionais responsáveis pelo projeto e implementação do SIG, em geral, não possuem experiência no uso de metodologias de desenvolvimento de sistemas de informação. O alto custo de aquisição dos dados geográficos também contribui para que menor atenção seja dispensada à etapa de modelagem conceitual do BDG. A utilização de padrões de análise tem sido proposta tanto para auxiliar no projeto conceitual de BDG quanto para permitir que profissionais com pouca experiência nessa atividade construam seus próprios esquemas. Padrões de análise são utilizados para documentar as fases de análise de requisitos e modelagem conceitual do banco de dados, representando qualquer parte de uma especificação de requisitos que tem sua origem em um projeto e pode ser reutilizada em outro(s). Todavia, a popularização e o uso de padrões de análise para BDG têm sido prejudicados principalmente devido à dificuldade de disponibilizar tais construções aos projetistas em geral. O processo de identificação de padrões (mineração de padrões) não é uma tarefa simples e tem sido realizada exclusivamente com base na experiência de especialistas humanos, tornando o processo lento e subjetivo. A subjetividade prejudica a popularização e a aplicação de padrões, pois possibilita que tais construções sejam questionadas por especialistas com diferentes experiências de projeto. Dessa forma, a identificação ou o desenvolvimento de técnicas capazes de capturar a experiência de especialistas de forma menos subjetiva é um passo importante para o uso de padrões. Com esse objetivo, este trabalho propõe a aplicação do processo de descoberta de conhecimento em banco de dados (DCBD) para inferir candidatos a padrão de análise para o projeto de BDG. Para tanto, esquemas conceituais de BDG são usados como base de conhecimento. DCBD é o processo não trivial de descoberta de conhecimento útil a partir de uma grande quantidade de dados. Durante o desenvolvimento da pesquisa ficou claro que a aplicação do processo de DCBD pode melhorar o processo de mineração de padrões, pois possibilita a análise de um maior número de esquemas em relação ao que é realizado atualmente. Essa característica viabiliza que sejam considerados esquemas construídos por diferentes especialistas, diminuindo a subjetividade dos padrões identificados. O processo de DCBD é composto de várias fases. Tais fases, assim como atividades específicas do problema de identificar padrões de análise, são discutidas neste trabalho.
Resumo:
O objetivo do presente trabalho é analisar as características empíricas de uma série de retornos de dados em alta freqüência para um dos ativos mais negociados na Bolsa de Valores de São Paulo. Estamos interessados em modelar a volatilidade condicional destes retornos, testando em particular a presença de memória longa, entre outros fenômenos que caracterizam este tipo de dados. Nossa investigação revela que além da memória longa, existe forte sazonalidade intradiária, mas não encontramos evidências de um fato estilizado de retornos de ações, o efeito alavancagem. Utilizamos modelos capazes de captar a memória longa na variância condicional dos retornos dessazonalizados, com resultados superiores a modelos tradicionais de memória curta, com implicações importantes para precificação de opções e de risco de mercado
Resumo:
Ao longo da história da humanidade, vários esforços foram feitos na tentativa de prever o futuro. Isto ocorreu como uma forma de antever possíveis situações e também de estabelecer mudanças de objetivos devido às alternativas apresentadas. Inúmeros questionamentos surgiram diante deste processo e inegavelmente estavam centrados no quesito “incerteza” dos eventos. E é exatamente neste contexto que surge a técnica prospectiva, que tem o propósito de analisar as incertezas e refletir sobre as suas alternativas de ação no presente e trata de aprimorar o entendimento de como o futuro pode acontecer. As opções de futuro se materializam através da sua descrição ordenada e consistente, ou seja, através de um cenário que é a delimitação de uma situação futura e da seqüência dos acontecimentos que permitem passar da situação de origem a essa situação futura. Assim, o objetivo desse trabalho é realizar um estudo prospectivo e longo prazo sobre a demanda de aços planos no Brasil, tendo em vista a importância da indústria siderúrgica brasileira e às incertezas a ela relacionadas e utiliza a análise prospectiva na elaboração de cenários passíveis de ocorrência. Portanto, trata, inicialmente, de aspectos conceituais da visão prospectiva e sua evolução histórica, abordando e focalizando a técnica proposta por Michel Godet, porém utilizando o método PROSPEX de Eduardo Marques para a elaboração de cenários da demanda de aços planos no Brasil. Diante disso, foram identificados dois cenários qualitativos contrastantes e posteriormente submetidos a um modelo macroeconômico de projeção, o Projetar_e, que, devidamente calibrado, indicou quantitativamente o nível de diversas variáveis econômicas e o desempenho futuro do Produto Interno Bruto (PIB). Como resultado, concluímos que há uma forte relação de causalidade entre o PIB e o consumo de aços planos e identificamos uma equação de regressão linear que permite a projeção da referida demanda. As conclusões ainda demonstram que os resultados dos cenários quantitativos identificados neste trabalho apresentam diferenças significativas em relação às estimativas efetuadas pelo Instituto Brasileiro de Siderurgia (IBS), cabendo, portanto uma reflexão sobre a plausibilidade da utilização de cenários de caráter projetivos para estudos de longo vii prazo, baseados em dados históricos que simplesmente extrapolam para o futuro a imagem do passado. Finalmente, recomendamos pesquisas adicionais para a formalização da integração de métodos qualitativos com métodos quantitativos de elaboração de cenários e a utilização de estudos prospectivos nas empresas participantes da cadeia de valor que utilizam o aço plano como matéria-prima essencial nos seus processos produtivos.
Resumo:
Diante dos problemas vivenciados no ensino da Física cabe ao professor a tarefa de tentar combater as dificuldades de seus alunos, proporcionando-lhes experiências de aprendizagem eficazes, procurando atualizar, tanto quanto possível, os instrumentos pedagógicos que utiliza. Considerando a especificidade experimental da Física, a realização de atividades de laboratório faz-se de grande importância. Porém, uma reflexão a respeito de como utilizar tais atividades é necessária para que possam realmente contribuir para uma aprendizagem significativa. Nesta busca, a utilização da aquisição automática de dados através de dispositivos do tipo CBL (do inglês Calculator Based Laboratory) pode, sem dúvida, trazer grande contribuição. Aliando-se à grande potencialidade do uso destes dispositivos, à inexistência de trabalhos divulgados envolvendo seu uso no ensino de Física no Brasil e, finalmente, ao fato deste ser um equipamento adquirido recentemente pelo Centro Federal de Educação Tecnológica de Pelotas, instituição na qual este trabalho foi desenvolvido, optou-se por propor nesta dissertação a utilização de tais equipamentos em laboratório didático de Física Térmica no ensino médio. Dentre os assuntos abordados cita-se: calor, temperatura e energia interna; resfriamento de um corpo; mudança de estado físico e pressão de vapor; transmissão do calor. Alguns destes assuntos não são normalmente abordados no ensino médio, como a lei de resfriamento e análise da curva de pressão de vapor. Outros tópicos levam a uma maior contextualização da Física, como umidade relativa do ar e formação de geada. Esta proposta é fundamentada pela teoria da aprendizagem significativa de David Ausubel e pela teoria da interação social de Lev Vigotski Através desta experiência de implementação em aulas regulares de ensino médio, espera-se verificar a possibilidade de sua utilização neste nível de ensino. Como produto deste trabalho de dissertação, foi produzido material instrucional que compreende guias experimentais e textos envolvendo os conteúdos abordados, assim como material hipermídia sobre transmissão do calor contendo algumas animações e teste interativo desenvolvidos em Flash MX. Todo este material foi concebido e implementado buscando levar o aluno a uma aprendizagem significativa dos conceitos físicos.
Resumo:
Este trabalho estima o efeito das Interações Sociais no desempenho dos estudantes no Brasil, a partir dos dados do SAEB 2005. Os resultados apontam que Peer Effects explicam uma parte importante da proficiência observada no exame de Matemática. Além disto, encontramos evidências de que este efeito é concentrado nos alunos no topo da distribuição de habilidade, o que sugere que políticas de ability tracking podem ser ótimas.
Resumo:
Um Sistema gerenciador de Bancos de Dados (SGBD) possui como principal característica a capacidade de gerenciar bases de dados que representam parte do mundo real. Para que essa representação seja fiel, os dados presentes em uma base de dados devem obedecer a diversas regras conhecidas como restrições de integridade. Estas podem ser provenientes da realidade modelada, da implementação ou do modelo de dados utilizado. O suporte oferecido por sistemas gerenciadores de bancos de dados tradicionais não é suficientemente adequado a certas aplicações com necessidades que vão além das convencionais. Diversas aplicações necessitam armazenar dados históricos em conjunto com seus períodos de validade. Outras precisam armazenar versões de conjuntos de dados, gerenciando suas agregações e formas de representação. Através do suporte aos conceitos de tempo e de versão, provido por um SGBD, grande parte dessas necessidades é suprida. Este tipo de banco de dados usa o conceito de tempo para armazenar e controlar dados históricos enquanto o conceito de versão permite a gerência de alternativas de projeto. Existem atualmente diversos trabalhos e implementações relacionados à manutenção de restrições de integridade sobre bancos de dados tradicionais. Entretanto, restrições que consideram a gerência de tempo e de versões sobre dados ainda representam uma área de pesquisa praticamente inexplorada. De acordo com essa realidade, o primeiro objetivo do presente trabalho consiste em definir uma classificação de restrições de integridade para bases de dados com suporte a tempo e versões, a fim de prover uma base para o desenvolvimento de pesquisas relacionadas à sua especificação e manutenção. O segundo objetivo consiste em agregar ao Modelo Temporal de Versões (TVM), que suporta os conceitos de tempo e de versão, uma linguagem que permita a especificação de restrições de integridade. Esta linguagem considera características relacionadas à temporalidade e ao versionamento dos dados e das próprias restrições.