996 resultados para Econometria de dados em painel


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apesar das vantagens das funcionalidades de banco de dados temporais, já amplamente demonstradas na literatura, ainda não existe, comercialmente, um SGBD totalmente temporal. Algumas propostas já foram feitas, embora um pouco discretas, dando ênfase em apenas parte das funcionalidades temporais, já sinalizando que em breve será possível existir um SGBD puramente temporal. Uma dessas propostas se constitui na implementação de uma camada de software que simula um banco de dados temporal, chamada Pacote de Tempo de Validade – PTV. Ela foi desenvolvida para demonstrar algumas funções temporais de banco de dados de tempo de validade. Embora o PTV tenha funções para garantir a integridade de dados temporais na inserção de tuplas, além de outros controles, não apresenta funções de consultas temporais. Essas funções foram desenvolvidas neste trabalho com base no TSQL2, aumentando, portanto, as funcionalidades temporais do PTV. Elas foram desenvolvidas para o SGBD Oracle 9i e consistem da principal proposta desse trabalho, permitindo inclusive validar as funções de consultas temporais de outras propostas da literatura. A segunda proposta desse trabalho é prover aos desenvolvedores e pesquisadores dessa área, uma interface visual apropriada para o uso do PTV, permitindo, assim, a exploração máxima dos recursos temporais desse pacote.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A mineração de dados é o núcleo do processo de descoberta de conhecimento em base de dados. Durante a mineração podem ser aplicadas diversas técnicas para a extração de conhecimento. Cada técnica disponível visa à realização de um objetivo e é executada de uma forma em particular. O foco desta dissertação é uma destas técnicas conhecida como detecção de desvios. A detecção de desvios é baseada no reconhecimento do padrão existente nos dados avaliados e a capacidade de identificar valores que não suportem o padrão identificado. Este trabalho propõe uma sistemática de avaliação dos dados, com o objetivo de identificar os registros que destoam do padrão encontrado. Para este estudo são aplicadas algumas técnicas de avaliação estatística. Inicialmente é apresentada uma revisão bibliográfica sobre descoberta de conhecimento em base de dados (DCBD) e mineração de dados (MD). Na seqüência, são apresentados os principais conceitos que auxiliam na definição do que é um desvio, quais as técnicas utilizadas para a detecção e a forma de avaliação do mesmo. Dando continuidade ao trabalho, a sistemática CRISP_DM é descrita por ser aplicada aos estudos de casos realizados. A seguir, são descritos os estudos de casos realizados que utilizaram as bases da Secretaria da Saúde do Rio Grande do Sul (SES). Finalmente, são apresentados as conclusões do estudo e possíveis trabalhos futuros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper has three original contributions. The first is the reconstruction of employment and income series to allow the creation of a new coincident index for the Brazilian economic activity. The second is the construction of a coincident index of the economic activity for Brazil, and from it, (re) establish a chronology of recessions in the recent past of the Brazilian economy. The coincident index follows the methodology proposed by The Conference Board and it covers the period 1980:1 to 2007:11. The third is the construction and evaluation of many leading indicators of economic activity for Brazil which fills an important gap in the Brazilian Business Cycles literature.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A seqüência evaporítica Aptiana da Bacia de Santos constitui-se num dos maiores depósitos salíferos antigos conhecidos no mundo, tanto em área como em espessura. Esta última chega a atingir 2.500 m em alguns locais com baixa deformação. Devido à intensa halocinese ocorrida a partir do Albiano, sua estratificação deposicional ficou preservada em poucos locais. O Platô de São Paulo, feição fisiográfica que se estende até as águas profundas da Bacia de Santos, teve papel importante na preservação do acamadamento original. Dois poços e traços de uma seção sísmica, localizados nesta área, foram utilizados para o estudo cicloestratigráfico do pacote evaporítico. A correlação dos dois poços, a partir de seus perfis geofísicos, permitiu a identificação de um ciclo evaporítico principal com grande continuidade lateral e de espessura variável. Este ciclo deposicional foi classificado como do tipo brining upward/downward, e caracteriza-se pela precipitação rítmica de anidrita, halita, sais complexos, halita e, novamente, anidrita, no final de um ciclo e início do seguinte. Esta ordem de deposição foi interpretada como função da variação da espessura da lâmina de água e da concentração da salmoura. A análise cicloestratigráfica dos perfis geofísicos dos dois poços (raios gama, velocidade e densidade) e dos dois traços sísmicos resultou na correlação do principal ciclo identificado com o ciclo orbital de Milankovich de precessão longa, com 22 ka. Um outro ciclo secundário, com maior espessura, foi interpretado como resultado de variações climáticas em função do ciclo de obliqüidade, com um período de 39 ka. As taxas de deposição de cada ciclo são bastante variáveis em função da quantidade de cada tipo de evaporito. Através das análises cicloestratigráficas e do estudo das proporções em que cada sal ocorre, chegou-se a uma taxa de deposição da halita entre 10 e 11,5 m/ka, e de 0,61 a 0,64 m/ka para a anidrita. Esta diferença entre as taxas de deposição da halita e da anidrita explica a grande variação de espessura do ciclo principal, especialmente entre o depocentro e a borda da bacia. A menor concentração da salmoura nas proximidades da borda justifica uma menor espessura do ciclo e uma proporção bem maior de anidrita, quando se compara com uma deposição próxima ao depocentro. A cicloestratigrafia aplicada aos traços sísmicos apresentou resultados similares aos encontrados nos dois poços. A grande variação das propriedades físicas entre os diferentes tipos de evaporitos, especialmente entre a anidrita e os sais complexos, permite a intercalação de refletores com grande amplitude e continuidade. Foram contabilizados 22 ciclos nos dois traços analisados, os quais somados com o nível superior não analisado, mais rico em anidrita, totalizam 573 ka para a idade da seqüência evaporítica. Este resultado, mais os encontrados nos dois poços, permite uma previsão de tempo para a deposição de toda a seqüência entre 400 e 600 ka. Como um modelo mais provável para a deposição de toda a seqüência evaporítica, defende-se, neste trabalho, a hipótese de uma bacia profunda com lâmina de água também profunda. Os ciclos teriam se depositados a partir de mudanças de concentração da salmoura originadas pela variação de uma lâmina de água de cerca de 1000 m, na deposição da anidrita, para menos de 200 na deposição dos sais complexos, na parte mais profunda da bacia. Corroboram para este modelo, a grande continuidade, do depocentro até as bordas, das camadas de cada ciclo, a declividade, mesmo que bastante baixa, da bacia e a impossibilidade de valores de taxas de subsidência similares aos de deposição do ciclo evaporítico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Uma das questões mais debatidas na atualidade diz respeito à problemática ambiental. A impossibilidade da verificação de muitos dos possíveis efeitos da atividade agrícola no ambiente rural tem levado pesquisadores das mais diversas áreas a buscar alternativas viáveis para uma utilização sustentável do ambiente. O presente trabalho apresenta o desenvolvimento de uma metodologia diferenciada para lidar com a questão. Utilizou-se, para isto, um estudo de caso em uma unidade de planejamento, a saber, uma bacia hidrográfica, ou microbacia hidrográfica (MBH) como será explanado no decorrer do texto, localizada no município de Maximiliano de Almeida, no Estado do Rio Grande do Sul, com uma área de cerca de 11,96 km2. Para esta bacia foram aplicadas as técnicas vinculadas às Metodologias Multicritério em Apoio à Decisão (MCDA – Multicriteria Decision Aided) visando à formulação de critérios quando do uso do geoprocessamento. Assim, a partir de uma revisão bibliográfica geral sobre os aspectos relacionados ao assunto em pauta, foram realizados os procedimentos metodológicos pertinentes, vinculados ao uso de MCDA e geoprocessamento, os quais resultaram em mapas específicos. A análise dos mapas resultantes corroborou as hipóteses apresentadas. Os resultados obtidos servem, portanto, como indicativos para a utilização desta metodologia nas demais bacias hidrográficas trabalhadas pela Associação Riograndense de Empreendimentos de Assistência Técnica e Extensão Rural – EMATER/RS – tida como parceira neste trabalho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho teve como objetivo identificar o impacto do risco de liquidez nos retornos excedentes esperados das debêntures no mercado secundário brasileiro. Foram realizadas análises de regressão em painel desbalanceado com dados semestrais de 101 debêntures ao longo de oito semestres (primeiro semestre de 2006 ao segundo semestre de 2009), totalizando 382 observações. Sete proxies (Spread de Compra e Venda, %Zero Returns, Idade, Volume de Emissão, Valor Nominal de Emissão, Quantidade Emitida e %Tempo) foram utilizadas para testar o impacto do risco de liquidez nos yield spreads das debêntures. O yield spread foi controlado por até dez outras variáveis determinantes que não a liquidez (Fator Juros, Fator Crédito, Taxa Livre de Risco, Rating, Duration, quatro variáveis contábeis e Volatilidade de equity). A hipótese nula de que não há prêmio de liquidez para o mercado secundário de debêntures no Brasil foi rejeitada apenas para três das sete proxies (Spread de Compra e Venda, Valor Nominal de Emissão e Quantidade Emitida). Os prêmios encontrados são bastante baixos (1,9 basis point para cada 100 basis point de incremento no Spread de Compra e Venda, 0,5 basis point para um aumento de 1% no valor do Valor Nominal de Emissão e 0,17 basis point para cada menos 1000 debêntures emitidas), o que vai ao encontro dos resultados encontrados por Gonçalves e Sheng (2010). De qualquer forma houve perda da eficiência das proxies de liquidez após correção das autocorrelaçôes e potenciais endogeneidades, seja através da inclusão de efeitos fixos, da análise em primeiras diferenças ou da utilização de um sistema de três equações.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No início dos anos 90, o Brasil e a Grã-Bretanha, juntos, deram um passo, no sentido de produzir estudos microclimáticos dentro da área que compreende a floresta Amazônica, visando quantificar e verificar o impacto do desmatamento dessa floresta sobre o clima. Para isso escolheu-se três regiões para a instalação de estações meteorológicas automáticas de superfície (Estados do Amazonas, Pará e Rondônia). Cada região recebeu uma estação em uma área florestada e outra em área desmatada. Esse projeto binacional foi chamado de "ESTUDO ANGLO-BRASILEIRO DE OBSERVAÇÃO DO CLIMA DA AMAZONIA, (ABRACOS - Anglo-Braz11ian Amazonian Climate Observation Study)". Esse trabalho apresenta a aplicação de dois métodos de controle de qualidade para os dados coletados pelas estações meteorológicas automáticas de superfície. Um desses métodos leva em consideração o comportamento estatístico das variáveis coletadas, e o outro método o comportamento físico e climatológico das mesmas. Por último se faz o uso desses dados com e sem erros no cálculo da evapotranspiração, no sentido de se ver o impacto de uma informação errônea no cálculo de um parametro. O método estatístico demonstrou ter um bom potencial na detecção de erros pequenos (com tamanhos variando de 5 a 20%).(Continua). Esse método apresentou rendimentos na obtenção de erros que oscilam entre 43% e 80% para a radiação solar global. Quando se testou os valores da temperatura do ar e temperatura do bulbo úmido, obteve-se um dos melhores rendimentos do método estatístico, que chegou a 91%. Os piores desempenhos foram quando se testou a radiação refletida, alcançando-se apenas 11,1%. O método físico mostrou-se eficiente na detecção de erros maiores (30 a 90%). Os melhores desempenhos aconteceram quando se testaram as temperaturas. Em um caso o rendimento chegou a 100%. Em seu pior desempenho o método detectou apenas 20% (Teste" A" ). O método físico somente detectou informações suspeitas, dentro dos erros inseridos nas séries de dados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os recentes avanços na tecnologia de sensores tem disponibilizado imagens em alta dimensionalidade para fins de sensoriamento Remoto. Análise e interpretação dos dados provenientes desta nova geração de sensores apresenta novas possibilidades e também novos desafios. Neste contexto,um dos maiores desafios consiste na estimação dos parâmetros em um classificador estatístico utilizando-se um número limitado de amostras de treinamento.Neste estudo,propõe-se uma nova metodologia de extração de feições para a redução da dimensionalidadedos dados em imagens hiperespectrais. Essa metodologia proposta é de fácil implementação e também eficiente do ponto de vista computacional.A hipótese básica consiste em assumir que a curva de resposta espectral do pixel, definida no espaço espectral, pelos contadores digitais (CD's) das bandas espectrais disponíveis, pode ser substituída por um número menor de estatísticas, descrevendo as principais característicasda resposta espectral dos pixels. Espera-se que este procedimento possa ser realizado sem uma perda significativa de informação. Os CD's em cada banda espectral são utilizados para o cálculo de um número reduzido de estatísticas que os substituirão no classificador. Propõe-se que toda a curva seja particionada em segmentos, cada segmento sendo então representado pela respectiva média e variância dos CD's. Propõem-se três algoritmos para segmentação da curva de resposta espectral dos pixels. O primeiro utiliza um procedimento muito simples. Utilizam-se segmentos de comprimento constante, isto é, não se faz nenhuma tentativa para ajustar o comprimento de cada segmento às características da curva espectral considerada. Os outros dois implementam um método que permite comprimentos variáveis para cada segmento,onde o comprimentodos segmentos ao longo da curva de resposta espectral é ajustado seqüencialmente.Um inconveniente neste procedimento está ligado ao fato de que uma vez selecionadauma partição, esta não pode ser alterada, tornando os algoritmos sub-ótimos. Realizam-se experimentos com um classificador paramétrico utilizando-se uma imagem do sensor AVIRIS. Obtiveram-se resultados animadores em termos de acurácia da classificação,sugerindo a eficácia dos algoritmos propostos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A implementação de técnicas estatísticas, como modelos de regressão, permite conhecer os efeitos dos fatores sobre a característica de qualidade de um produto, contribuindo na melhoria da qualidade de produtos e processos. O objetivo desta dissertação consiste em elaborar um método que oriente à modelagem de dados mensurados em proporção, levando em consideração a classificação das variáveis dependentes e independentes, com enfoque no Modelo de Regressão Beta e no Modelo de Quaseverossimilhança. O método é ilustrado com um estudo em uma empresa curtidora da região do Vale do Rio dos Sinos no Rio Grande do Sul. A modelagem realizada neste estudo referiuse a proporção de produtos refugados no processo de produção por erro de classificação. Os Modelos de Regressão Beta e de Quase-verossimilhança apresentaram bom ajuste e mostraram-se adequados na modelagem da proporção de produtos por erros de classificação. Esses modelos podem ser estendidos a todos os processos industriais que envolvam a produção de produtos não conformes às especificações de fabricação (defeituosos). O método elaborado apresentou facilidade de entendimento e clareza dos passos para a escolha dos modelos de regressão usados na modelagem de dados mensurados em proporção.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Estudos que investigam as razões do acumulo de caixa e a existência de uma política de gestão ativa do caixa têm ganhado evidência na literatura acadêmica internacional nos últimos anos. As pesquisas que consideram os determinantes do nível de caixa e suas implicações ainda encontram-se em um estágio inicial. Adicionalmente, pesquisas ao redor do mundo têm encontrado elevado nível de caixa acumulado pelas empresas. De acordo com as principais linhas de investigação empírica, três correntes teóricas podem explicar o nível de caixa a partir das variáveis denominadas determinantes: tradeoff theory, pecking order theory e a teoria de agência. Este estudo tem por objetivo investigar empiricamente os determinantes do caixa e identificar a existência ou não de uma política de gestão ativa nas empresas brasileiras. Foi realizada uma pesquisa com amostra de 198 empresas listadas na BOVESPA, no período de 1998 a 2008, totalizando 2178 observações. A pesquisa utilizou modelos econométricos de regressão linear e painel de dados. Com as evidências empíricas encontradas, podemos concluir que a gestão do nível de caixa acumulado é uma importante decisão a ser tomada pelas empresas brasileiras. As teorias que suportam as explicações dos determinantes do nível de caixa podem ser aplicadas de modo complementar ao invés de divergentes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho abordamos alguns “puzzles” da Paridade do Poder de Compra (PPC) ainda não resolvidos; durante esse processo propomos um novo modelo não-linear e estudamos o papel da agregação temporal e de bases de dados abrangendo apenas um pequeno período histórico. A hipótese de que não existe uma força de convergência agindo sobre o câmbio real ajustado (ARER) foi fortemente rejeitada estatisticamente, e a não-linearidade se mostrou um questão importante. As meia-vidas encontradas para o Brasil usando os modelos padrão parecem ser uma das menores já encontradas para um país, e chegamos à conclusão de que a velocidade de convergência em direção a PPC ainda não pode ser considerada um consenso. Pretendemos, em adição, dar contribuições através do levantamento e esclarecimento de alguns resultados e problemas potenciais concernentes ao estudo da PPC.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo desta dissertação é estudar a relevância dos gastos em P&D e Inovação no valor de mercado das empresas da indústria química brasileira. Este foi um tema de grande debate na reestruturação da indústria petroquímica e que resultou na criação da Braskem, a primeira petroquímica integrada brasileira. As justificativas para a referida integração vertical foram a maior capacidade para investimentos em P&D e o aumento do valor das empresas para poderem competir conforme os moldes internacionais. Por outro lado, economistas debatiam sobre o poder de monopólio da nova empresa e, consequentemente, o possível aumento de preços para o consumidor final. Desta forma, foram analisados nesse estudo os dados da indústria química brasileira de 1996 a 2008, obtidos no Anuário da Indústria Química Brasileira. Os modelos foram estimados utilizando estimadores de efeito fixos e aleatórios para um painel de dados não balanceado. A estimação por efeitos fixos foi escolhida, tanto para a estimação do modelo aditivo,quanto para o modelo multiplicativo. Acredita-se que o modelo multiplicativo, além de mais geral, seja o mais adequado para a modelagem de interesse, uma vez que ele trata as diferenças entre o porte das empresas consideradas por meio da linearização, e conseqüente suavização, do modelo. A elasticidade estimada dos gastos em P&D e inovação, com relação aos valores de mercado das empresas, indicou relacionamento positivo entre estes gastos e o aumento de valor das empresas. O coeficiente de 0,26 indica que um aumento de 1% nos gastos com P&D geram, em média, um aumento de 0,26% no valor de mercado destas empresas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As grandes corporações, tanto ocidentais quanto orientais, vêm utilizando instrumentos derivativos como ferramenta para proteger suas exposições indiretas, como por exemplo, os riscos cambiais. O presente trabalho tem como objetivo estudar o comportamento do custo de capital de empresas brasileiras não-financeiras na presença da contratação de instrumentos financeiros derivativos como uma proteção (ou seguro) do fluxo de caixa das mesmas. Obteve-se uma amostra com 877 observações considerando os dados coletados entre 2004 e 2010 de 47 empresas. O mercado brasileiro foi selecionado por se tratar de uma economia emergente importante. A metodologia Painel de Dados (Cross-section com efeitos aleatórios) foi utilizada com a finalidade de testar a hipótese de que a utilização de derivativos como ferramenta de proteção na política de gestão de risco reduz o custo de capital das empresas. Os resultados aqui presentes rejeitaram esta hipótese, mostrando que no Brasil, a relação entre a utilização dessas ferramentas e o custo de capital é positiva. No entanto, encontraram-se indícios de que pode ter havido uma mudança de postura na política de gestão de risco das empresas após a crise de 2008. Uma outra análise, realizada com apenas uma determinada empresa brasileira, baseada no modelo TACC (Total Average Cost of Capital), indica a possibilidade de redução do custo de capital caso se adote uma gestão de risco conservadora.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho examina hipóteses de microestrutura de mercado nos dados de minicontratos futuros do Ibovespa divulgados em alta frequência pelo sinal de market data da BM&FBOVESPA. Para a análise, foi utilizado o modelo de duração condicional autoregressivo, o qual permite o tratamento estatístico de séries financeiras que possuem distribuição em espaços irregulares de tempo e padrões condicionais ao conjunto de informações disponíveis no mercado. A contribuição deste trabalho reside na validação das premissas sobre microestrutura nos mercados de futuros de índice, que são diferentes dos mercados de ações, pois não existe a figura do formador de mercado, e a literatura global sugere que o efeito da assimetria de informação é insignificante na formação de preços devido à diversificação de ativos dos índices. Em contrapartida, o especulador é o provedor de liquidez neste mercado, e seu papel na intensidade de negociação, volume e spread é avaliado. Os resultados confirmam a relação negativa entre intensidade de negociação, volume e spread e corroboram a tese de que a liquidez de mercado pode ser entendida como o preço pela demanda por execução imediata de negócios.

Relevância:

20.00% 20.00%

Publicador: