996 resultados para dados de painel


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A seqüência evaporítica Aptiana da Bacia de Santos constitui-se num dos maiores depósitos salíferos antigos conhecidos no mundo, tanto em área como em espessura. Esta última chega a atingir 2.500 m em alguns locais com baixa deformação. Devido à intensa halocinese ocorrida a partir do Albiano, sua estratificação deposicional ficou preservada em poucos locais. O Platô de São Paulo, feição fisiográfica que se estende até as águas profundas da Bacia de Santos, teve papel importante na preservação do acamadamento original. Dois poços e traços de uma seção sísmica, localizados nesta área, foram utilizados para o estudo cicloestratigráfico do pacote evaporítico. A correlação dos dois poços, a partir de seus perfis geofísicos, permitiu a identificação de um ciclo evaporítico principal com grande continuidade lateral e de espessura variável. Este ciclo deposicional foi classificado como do tipo brining upward/downward, e caracteriza-se pela precipitação rítmica de anidrita, halita, sais complexos, halita e, novamente, anidrita, no final de um ciclo e início do seguinte. Esta ordem de deposição foi interpretada como função da variação da espessura da lâmina de água e da concentração da salmoura. A análise cicloestratigráfica dos perfis geofísicos dos dois poços (raios gama, velocidade e densidade) e dos dois traços sísmicos resultou na correlação do principal ciclo identificado com o ciclo orbital de Milankovich de precessão longa, com 22 ka. Um outro ciclo secundário, com maior espessura, foi interpretado como resultado de variações climáticas em função do ciclo de obliqüidade, com um período de 39 ka. As taxas de deposição de cada ciclo são bastante variáveis em função da quantidade de cada tipo de evaporito. Através das análises cicloestratigráficas e do estudo das proporções em que cada sal ocorre, chegou-se a uma taxa de deposição da halita entre 10 e 11,5 m/ka, e de 0,61 a 0,64 m/ka para a anidrita. Esta diferença entre as taxas de deposição da halita e da anidrita explica a grande variação de espessura do ciclo principal, especialmente entre o depocentro e a borda da bacia. A menor concentração da salmoura nas proximidades da borda justifica uma menor espessura do ciclo e uma proporção bem maior de anidrita, quando se compara com uma deposição próxima ao depocentro. A cicloestratigrafia aplicada aos traços sísmicos apresentou resultados similares aos encontrados nos dois poços. A grande variação das propriedades físicas entre os diferentes tipos de evaporitos, especialmente entre a anidrita e os sais complexos, permite a intercalação de refletores com grande amplitude e continuidade. Foram contabilizados 22 ciclos nos dois traços analisados, os quais somados com o nível superior não analisado, mais rico em anidrita, totalizam 573 ka para a idade da seqüência evaporítica. Este resultado, mais os encontrados nos dois poços, permite uma previsão de tempo para a deposição de toda a seqüência entre 400 e 600 ka. Como um modelo mais provável para a deposição de toda a seqüência evaporítica, defende-se, neste trabalho, a hipótese de uma bacia profunda com lâmina de água também profunda. Os ciclos teriam se depositados a partir de mudanças de concentração da salmoura originadas pela variação de uma lâmina de água de cerca de 1000 m, na deposição da anidrita, para menos de 200 na deposição dos sais complexos, na parte mais profunda da bacia. Corroboram para este modelo, a grande continuidade, do depocentro até as bordas, das camadas de cada ciclo, a declividade, mesmo que bastante baixa, da bacia e a impossibilidade de valores de taxas de subsidência similares aos de deposição do ciclo evaporítico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Uma das questões mais debatidas na atualidade diz respeito à problemática ambiental. A impossibilidade da verificação de muitos dos possíveis efeitos da atividade agrícola no ambiente rural tem levado pesquisadores das mais diversas áreas a buscar alternativas viáveis para uma utilização sustentável do ambiente. O presente trabalho apresenta o desenvolvimento de uma metodologia diferenciada para lidar com a questão. Utilizou-se, para isto, um estudo de caso em uma unidade de planejamento, a saber, uma bacia hidrográfica, ou microbacia hidrográfica (MBH) como será explanado no decorrer do texto, localizada no município de Maximiliano de Almeida, no Estado do Rio Grande do Sul, com uma área de cerca de 11,96 km2. Para esta bacia foram aplicadas as técnicas vinculadas às Metodologias Multicritério em Apoio à Decisão (MCDA – Multicriteria Decision Aided) visando à formulação de critérios quando do uso do geoprocessamento. Assim, a partir de uma revisão bibliográfica geral sobre os aspectos relacionados ao assunto em pauta, foram realizados os procedimentos metodológicos pertinentes, vinculados ao uso de MCDA e geoprocessamento, os quais resultaram em mapas específicos. A análise dos mapas resultantes corroborou as hipóteses apresentadas. Os resultados obtidos servem, portanto, como indicativos para a utilização desta metodologia nas demais bacias hidrográficas trabalhadas pela Associação Riograndense de Empreendimentos de Assistência Técnica e Extensão Rural – EMATER/RS – tida como parceira neste trabalho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho teve como objetivo identificar o impacto do risco de liquidez nos retornos excedentes esperados das debêntures no mercado secundário brasileiro. Foram realizadas análises de regressão em painel desbalanceado com dados semestrais de 101 debêntures ao longo de oito semestres (primeiro semestre de 2006 ao segundo semestre de 2009), totalizando 382 observações. Sete proxies (Spread de Compra e Venda, %Zero Returns, Idade, Volume de Emissão, Valor Nominal de Emissão, Quantidade Emitida e %Tempo) foram utilizadas para testar o impacto do risco de liquidez nos yield spreads das debêntures. O yield spread foi controlado por até dez outras variáveis determinantes que não a liquidez (Fator Juros, Fator Crédito, Taxa Livre de Risco, Rating, Duration, quatro variáveis contábeis e Volatilidade de equity). A hipótese nula de que não há prêmio de liquidez para o mercado secundário de debêntures no Brasil foi rejeitada apenas para três das sete proxies (Spread de Compra e Venda, Valor Nominal de Emissão e Quantidade Emitida). Os prêmios encontrados são bastante baixos (1,9 basis point para cada 100 basis point de incremento no Spread de Compra e Venda, 0,5 basis point para um aumento de 1% no valor do Valor Nominal de Emissão e 0,17 basis point para cada menos 1000 debêntures emitidas), o que vai ao encontro dos resultados encontrados por Gonçalves e Sheng (2010). De qualquer forma houve perda da eficiência das proxies de liquidez após correção das autocorrelaçôes e potenciais endogeneidades, seja através da inclusão de efeitos fixos, da análise em primeiras diferenças ou da utilização de um sistema de três equações.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No início dos anos 90, o Brasil e a Grã-Bretanha, juntos, deram um passo, no sentido de produzir estudos microclimáticos dentro da área que compreende a floresta Amazônica, visando quantificar e verificar o impacto do desmatamento dessa floresta sobre o clima. Para isso escolheu-se três regiões para a instalação de estações meteorológicas automáticas de superfície (Estados do Amazonas, Pará e Rondônia). Cada região recebeu uma estação em uma área florestada e outra em área desmatada. Esse projeto binacional foi chamado de "ESTUDO ANGLO-BRASILEIRO DE OBSERVAÇÃO DO CLIMA DA AMAZONIA, (ABRACOS - Anglo-Braz11ian Amazonian Climate Observation Study)". Esse trabalho apresenta a aplicação de dois métodos de controle de qualidade para os dados coletados pelas estações meteorológicas automáticas de superfície. Um desses métodos leva em consideração o comportamento estatístico das variáveis coletadas, e o outro método o comportamento físico e climatológico das mesmas. Por último se faz o uso desses dados com e sem erros no cálculo da evapotranspiração, no sentido de se ver o impacto de uma informação errônea no cálculo de um parametro. O método estatístico demonstrou ter um bom potencial na detecção de erros pequenos (com tamanhos variando de 5 a 20%).(Continua). Esse método apresentou rendimentos na obtenção de erros que oscilam entre 43% e 80% para a radiação solar global. Quando se testou os valores da temperatura do ar e temperatura do bulbo úmido, obteve-se um dos melhores rendimentos do método estatístico, que chegou a 91%. Os piores desempenhos foram quando se testou a radiação refletida, alcançando-se apenas 11,1%. O método físico mostrou-se eficiente na detecção de erros maiores (30 a 90%). Os melhores desempenhos aconteceram quando se testaram as temperaturas. Em um caso o rendimento chegou a 100%. Em seu pior desempenho o método detectou apenas 20% (Teste" A" ). O método físico somente detectou informações suspeitas, dentro dos erros inseridos nas séries de dados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os recentes avanços na tecnologia de sensores tem disponibilizado imagens em alta dimensionalidade para fins de sensoriamento Remoto. Análise e interpretação dos dados provenientes desta nova geração de sensores apresenta novas possibilidades e também novos desafios. Neste contexto,um dos maiores desafios consiste na estimação dos parâmetros em um classificador estatístico utilizando-se um número limitado de amostras de treinamento.Neste estudo,propõe-se uma nova metodologia de extração de feições para a redução da dimensionalidadedos dados em imagens hiperespectrais. Essa metodologia proposta é de fácil implementação e também eficiente do ponto de vista computacional.A hipótese básica consiste em assumir que a curva de resposta espectral do pixel, definida no espaço espectral, pelos contadores digitais (CD's) das bandas espectrais disponíveis, pode ser substituída por um número menor de estatísticas, descrevendo as principais característicasda resposta espectral dos pixels. Espera-se que este procedimento possa ser realizado sem uma perda significativa de informação. Os CD's em cada banda espectral são utilizados para o cálculo de um número reduzido de estatísticas que os substituirão no classificador. Propõe-se que toda a curva seja particionada em segmentos, cada segmento sendo então representado pela respectiva média e variância dos CD's. Propõem-se três algoritmos para segmentação da curva de resposta espectral dos pixels. O primeiro utiliza um procedimento muito simples. Utilizam-se segmentos de comprimento constante, isto é, não se faz nenhuma tentativa para ajustar o comprimento de cada segmento às características da curva espectral considerada. Os outros dois implementam um método que permite comprimentos variáveis para cada segmento,onde o comprimentodos segmentos ao longo da curva de resposta espectral é ajustado seqüencialmente.Um inconveniente neste procedimento está ligado ao fato de que uma vez selecionadauma partição, esta não pode ser alterada, tornando os algoritmos sub-ótimos. Realizam-se experimentos com um classificador paramétrico utilizando-se uma imagem do sensor AVIRIS. Obtiveram-se resultados animadores em termos de acurácia da classificação,sugerindo a eficácia dos algoritmos propostos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A implementação de técnicas estatísticas, como modelos de regressão, permite conhecer os efeitos dos fatores sobre a característica de qualidade de um produto, contribuindo na melhoria da qualidade de produtos e processos. O objetivo desta dissertação consiste em elaborar um método que oriente à modelagem de dados mensurados em proporção, levando em consideração a classificação das variáveis dependentes e independentes, com enfoque no Modelo de Regressão Beta e no Modelo de Quaseverossimilhança. O método é ilustrado com um estudo em uma empresa curtidora da região do Vale do Rio dos Sinos no Rio Grande do Sul. A modelagem realizada neste estudo referiuse a proporção de produtos refugados no processo de produção por erro de classificação. Os Modelos de Regressão Beta e de Quase-verossimilhança apresentaram bom ajuste e mostraram-se adequados na modelagem da proporção de produtos por erros de classificação. Esses modelos podem ser estendidos a todos os processos industriais que envolvam a produção de produtos não conformes às especificações de fabricação (defeituosos). O método elaborado apresentou facilidade de entendimento e clareza dos passos para a escolha dos modelos de regressão usados na modelagem de dados mensurados em proporção.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Estudos que investigam as razões do acumulo de caixa e a existência de uma política de gestão ativa do caixa têm ganhado evidência na literatura acadêmica internacional nos últimos anos. As pesquisas que consideram os determinantes do nível de caixa e suas implicações ainda encontram-se em um estágio inicial. Adicionalmente, pesquisas ao redor do mundo têm encontrado elevado nível de caixa acumulado pelas empresas. De acordo com as principais linhas de investigação empírica, três correntes teóricas podem explicar o nível de caixa a partir das variáveis denominadas determinantes: tradeoff theory, pecking order theory e a teoria de agência. Este estudo tem por objetivo investigar empiricamente os determinantes do caixa e identificar a existência ou não de uma política de gestão ativa nas empresas brasileiras. Foi realizada uma pesquisa com amostra de 198 empresas listadas na BOVESPA, no período de 1998 a 2008, totalizando 2178 observações. A pesquisa utilizou modelos econométricos de regressão linear e painel de dados. Com as evidências empíricas encontradas, podemos concluir que a gestão do nível de caixa acumulado é uma importante decisão a ser tomada pelas empresas brasileiras. As teorias que suportam as explicações dos determinantes do nível de caixa podem ser aplicadas de modo complementar ao invés de divergentes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo desta dissertação é estudar a relevância dos gastos em P&D e Inovação no valor de mercado das empresas da indústria química brasileira. Este foi um tema de grande debate na reestruturação da indústria petroquímica e que resultou na criação da Braskem, a primeira petroquímica integrada brasileira. As justificativas para a referida integração vertical foram a maior capacidade para investimentos em P&D e o aumento do valor das empresas para poderem competir conforme os moldes internacionais. Por outro lado, economistas debatiam sobre o poder de monopólio da nova empresa e, consequentemente, o possível aumento de preços para o consumidor final. Desta forma, foram analisados nesse estudo os dados da indústria química brasileira de 1996 a 2008, obtidos no Anuário da Indústria Química Brasileira. Os modelos foram estimados utilizando estimadores de efeito fixos e aleatórios para um painel de dados não balanceado. A estimação por efeitos fixos foi escolhida, tanto para a estimação do modelo aditivo,quanto para o modelo multiplicativo. Acredita-se que o modelo multiplicativo, além de mais geral, seja o mais adequado para a modelagem de interesse, uma vez que ele trata as diferenças entre o porte das empresas consideradas por meio da linearização, e conseqüente suavização, do modelo. A elasticidade estimada dos gastos em P&D e inovação, com relação aos valores de mercado das empresas, indicou relacionamento positivo entre estes gastos e o aumento de valor das empresas. O coeficiente de 0,26 indica que um aumento de 1% nos gastos com P&D geram, em média, um aumento de 0,26% no valor de mercado destas empresas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As grandes corporações, tanto ocidentais quanto orientais, vêm utilizando instrumentos derivativos como ferramenta para proteger suas exposições indiretas, como por exemplo, os riscos cambiais. O presente trabalho tem como objetivo estudar o comportamento do custo de capital de empresas brasileiras não-financeiras na presença da contratação de instrumentos financeiros derivativos como uma proteção (ou seguro) do fluxo de caixa das mesmas. Obteve-se uma amostra com 877 observações considerando os dados coletados entre 2004 e 2010 de 47 empresas. O mercado brasileiro foi selecionado por se tratar de uma economia emergente importante. A metodologia Painel de Dados (Cross-section com efeitos aleatórios) foi utilizada com a finalidade de testar a hipótese de que a utilização de derivativos como ferramenta de proteção na política de gestão de risco reduz o custo de capital das empresas. Os resultados aqui presentes rejeitaram esta hipótese, mostrando que no Brasil, a relação entre a utilização dessas ferramentas e o custo de capital é positiva. No entanto, encontraram-se indícios de que pode ter havido uma mudança de postura na política de gestão de risco das empresas após a crise de 2008. Uma outra análise, realizada com apenas uma determinada empresa brasileira, baseada no modelo TACC (Total Average Cost of Capital), indica a possibilidade de redução do custo de capital caso se adote uma gestão de risco conservadora.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho examina hipóteses de microestrutura de mercado nos dados de minicontratos futuros do Ibovespa divulgados em alta frequência pelo sinal de market data da BM&FBOVESPA. Para a análise, foi utilizado o modelo de duração condicional autoregressivo, o qual permite o tratamento estatístico de séries financeiras que possuem distribuição em espaços irregulares de tempo e padrões condicionais ao conjunto de informações disponíveis no mercado. A contribuição deste trabalho reside na validação das premissas sobre microestrutura nos mercados de futuros de índice, que são diferentes dos mercados de ações, pois não existe a figura do formador de mercado, e a literatura global sugere que o efeito da assimetria de informação é insignificante na formação de preços devido à diversificação de ativos dos índices. Em contrapartida, o especulador é o provedor de liquidez neste mercado, e seu papel na intensidade de negociação, volume e spread é avaliado. Os resultados confirmam a relação negativa entre intensidade de negociação, volume e spread e corroboram a tese de que a liquidez de mercado pode ser entendida como o preço pela demanda por execução imediata de negócios.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho buscamos evidências, para o caso brasileiro, da Hipótese da Renda Permanente. Primeiro, investigamos a existência de tendências e ciclos comuns entre as séries de consumo e renda per capita. Então, usando o resultado de co-movimentos entre as variáveis decompomos cada série em tendência e ciclo, através dos modelos de componentes não observados de Harvey (1989). Por fim, usando os modelos de vetores autorregressivos, decompomos a variância dos erros de previsão, seguindo a metodologia de Blanchard e Quah (1989), com o objetivo de avaliarmos a importância relativa dos choques permanentes e transitórios para as variações do consumo. Os resultados apontam que as inovações permanentes são responsáveis pela maior parte das variações no consumo. Este resultado embora rejeite a Hipótese da Renda Permanente, indica que o consumo responde pouco a variações transitórias na renda, ou seja, os choques temporários têm pouca importância para o consumo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação de mestrado tem o objetivo de estudar o efeito suspensivo do recurso de apelação e seus reflexos no sistema jurídico brasileiro. Com efeito, busca-se analisar as possíveis consequências da supressão do próprio efeito suspensivo sobre o tempo de duração dos processos e quanto a possível insegurança jurídica causada pela ausência da suspensão dos julgados de primeira instância. Sustenta-se neste trabalho que a supressão do efeito suspensivo pode ser uma proposta para aumentar a celeridade na tramitação dos processos no Brasil, sem causar problemas de segurança jurídica. Em primeiro lugar, descreve-se o problema de investigação e suas proposições. O primeiro capítulo apresenta a judicialização das relações sociais e, por conseguinte, a multiplicação do número de ações distribuídas e a crescente exigência pela efetividade da prestação jurisdicional. Neste mesmo capítulo o trabalho se ocupa em apreciar dos dados obtidos junto ao Tribunal de Justiça do Rio de Janeiro e com a análise qualitativa de casos típicos que demonstram o uso do efeito suspensivo tão somente para procrastinar o tempo de duração do processo bem como para barganhar um possível acordo vantajoso para o devedor. Em seguida, apreciamos os Princípios constitucionais da Segurança Jurídica e da Efetividade e Celeridade da Prestação Jurisdicional indicando o marco teórico de cada princípio. O segundo capítulo descreve conceito de sentença e seus efeitos, levando-se em consideração as últimas reformas processuais. Após, estuda-se a suposta estabilidade do sistema jurídico com a aplicação do efeito suspensivo, abordando o duplo grau de jurisdição como garantia constitucional. Posteriormente, indicamos a utilização estratégica do efeito suspensivo pelos atores (réus) do processo. O terceiro capítulo destina-se a apontar a legislação estrangeira e seus respectivos fundamentos jurídicos que influenciaram o nosso ordenamento jurídico, bem como a colaboração do autor em sugerir uma nova proposta de lei. Aproveitamos a oportunidade para trazer á baila as possíveis alterações oriundas do projeto do novo Código de Processo Civil e suas aspirações para dirimir os obstáculos que causam o longo tempo de duração dos processos. Por fim, apresentamos as considerações finais sobre a hipótese de supressão do efeito suspensivo como meio de alcançar a redução do tempo de duração do processo mantendo-se as garantias constitucionais da ampla defesa e do devido processo legal. Com efeito, demonstra-se que não há qualquer violação ao Princípio da Segurança Jurídica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Trata das questões de organização e recuperação da informação no caso específico do acervo do Centro de Pesquisa e História Contemporânea do Brasil – CPDOC. Baseia essa análise num estudo de caso do uso do serviço de referência da instituição prestado pela Sala de Consulta e também no utilização da base de dados Accessus. Traça um perfil do usuário do acervo da instituição além de um perfil de pesquisa desses indivíduos ao mapear o comportamento dos usuários diante da ferramenta Accessus. Aborda o contexto da elaboração da base de dados e investiga a criação da linguagem controlada em história e ciências afins que serviu de base para o Accessus. Problematiza as questões de acessibilidade da linguagem a um público não relacionado com a área. Pareia essa problematização com análise dos diferentes perfis de usuários. Discute a forma de indexação do acervo do CPDOC e suscita reflexões sobre esse processo que considere uma relação direta com o perfil dos usuários.