939 resultados para Erosão - Previsão
Resumo:
A incerteza é o principal elemento do futuro. Desde os primórdios, o homem busca métodos para estruturar essas incertezas futuras e assim poder guiar suas ações. Apenas a partir da segunda metade do século XX, porém, quando os métodos projetivos e preditivos já não eram mais capazes de explicar o futuro em um ambiente mundial cada vez mais interligado e turbulento, é que nasceram os primeiros métodos estruturados de construção de cenários. Esses métodos prospectivos visam lançar a luz sobre o futuro não para projetar um futuro único e certo, mas para visualizar uma gama de futuros possíveis e coerentes. Esse trabalho tem como objetivo propor uma nova abordagem à construção de cenários, integrando o Método de Impactos Cruzados à Análise Morfológica, utilizando o conceito de Rede Bayesianas, de fonna a reduzir a complexidade da análise sem perda de robustez. Este trabalho fará uma breve introdução histórica dos estudos do futuro, abordará os conceitos e definições de cenários e apresentará os métodos mais utilizados. Como a abordagem proposta pretende-se racionalista, será dado foco no Método de Cenários de Michel Godet e suas ferramentas mais utilizadas. Em seguida, serão apresentados os conceitos de Teoria dos Grafos, Causalidade e Redes Bayesianas. A proposta é apresentada em três etapas: 1) construção da estrutura do modelo através da Análise Estrutural, propondo a redução de um modelo inicialmente cíclico para um modelo acíclico direto; 2) utilização da Matriz de Impactos Cruzados como ferramenta de alimentação, preparação e organização dos dados de probabilidades; 3) utilização da Rede Bayesiana resultante da primeira etapa como subespaço de análise de uma Matriz Morfológica. Por último, um teste empírico é realizado para comprovar a proposta de redução do modelo cíclico em um modelo acíclico.
Resumo:
Com o objetivo de avaliar o uso do consumo de energia elétrica como indicador socioeconômico, esta pesquisa analisa informações em dois níveis de agregação geográfica. No primeiro, sob perspectiva territorial, investiga indicadores de Renda e Consumo de Energia Elétrica agregados por áreas de ponderação (conjunto de setores censitários) do município de São Paulo e utiliza os microdados do Censo Demográfico 2000 em conjunto com a base de domicílios da AES Eletropaulo. Aplica modelos de Spatial Auto-Regression (SAR), Geographically Weighted Regression (GWR), e um modelo inédito combinado (GWR+SAR), desenvolvido neste estudo. Diversas matrizes de vizinhança foram utilizadas na avaliação da influência espacial (com padrão Centro-Periferia) das variáveis em estudo. As variáveis mostraram forte auto-correlação espacial (I de Moran superior a 58% para o Consumo de Energia Elétrica e superior a 75% para a Renda Domiciliar). As relações entre Renda e Consumo de Energia Elétrica mostraram-se muito fortes (os coeficientes de explicação da Renda atingiram valores de 0,93 a 0,98). No segundo nível, domiciliar, utiliza dados coletados na Pesquisa Anual de Satisfação do Cliente Residencial, coordenada pela Associação Brasileira dos Distribuidores de Energia Elétrica (ABRADEE), para os anos de 2004, 2006, 2007, 2008 e 2009. Foram aplicados os modelos Weighted Linear Model (WLM), GWR e SAR para os dados das pesquisas com as entrevistas alocadas no centróide e na sede dos distritos. Para o ano de 2009, foram obtidas as localizações reais dos domicílios entrevistados. Adicionalmente, foram desenvolvidos 6 algoritmos de distribuição de pontos no interior dos polígonos dos distritos. Os resultados dos modelos baseados em centróides e sedes obtiveram um coeficiente de determinação R2 em torno de 0,45 para a técnica GWR, enquanto os modelos baseados no espalhamento de pontos no interior dos polígonos dos distritos reduziram essa explicação para cerca de 0,40. Esses resultados sugerem que os algoritmos de alocação de pontos em polígonos permitem a observação de uma associação mais realística entre os construtos analisados. O uso combinado dos achados demonstra que as informações de faturamento das distribuidoras de energia elétrica têm grande potencial para apoiar decisões estratégicas. Por serem atuais, disponíveis e de atualização mensal, os indicadores socioeconômicos baseados em consumo de energia elétrica podem ser de grande utilidade como subsídio a processos de classificação, concentração e previsão da renda domiciliar.
Resumo:
A textura é um atributo ainda pouco utilizado no reconhecimento automático de cenas naturais em sensoriamento remoto, já que ela advém da sensação visual causada pelas variações tonais existentes em uma determinada região da imagem, tornando difícil a sua quantificação. A morfologia matemática, através de operações como erosão, dilatação e abertura, permite decompor uma imagem em elementos fundamentais, as primitivas texturais. As primitivas texturais apresentam diversas dimensões, sendo possível associar um conjunto de primitivas com dimensões semelhantes, em uma determinada classe textural. O processo de classificação textural quantifica as primitivas texturais, extrai as distribuições das dimensões das mesmas e separa as diferentes distribuições por meio de um classificador de máxima-verossimilhança gaussiana. O resultado final é uma imagem temática na qual cada tema representa uma das texturas existentes na imagem original.
Resumo:
o monitoramento da expansão das áreas urbanas e a análise da sua interação com o meio físico têm sido um grande desafio para os técnicos de planejamento urbano. No Brasil, em especial, dada a velocidade com que o fenômeno se processa e graças a um crescimento desordenado das cidades nas últimas décadas, esses estudos, que envolvem um elevado número de informações, tem exigido decisões e diagnósticos urbanos cada vez mais rápidos. Esta dissertação propõe uma metodologia para o planejamento racional do uso do solo urbano através do emprego integrado de tecnologias recentes como Sistema de Informações Geográficas (SIG), Modelagem Numérica do Terreno (MNT) e Sensoriamento Remoto através de imagens orbitais. Para isso, são implementados no SIG desenvolvido pelo INPE dados provenientes de cartas topográficas, de mapas temáticos do meio físico e de imagens orbitais LANSAT/TM da região estudada. A partir desses dados iniciais são geradas, também num SIG, outras informações com objetivo de estudar a evolução da área urbana, identificar áreas com suscetibilidade preliminar à erosão laminar, áreas com restrição ao uso urbano e áreas de eventos perigosos e riscos. o trabalho apresenta inicialmente uma revisão bibliográfica sobre a aplicação de Sensoriamento Remoto, Modelagem Numérica do Terreno (MNT) e Sistema de Informações Geográficas (SIG) em estudos urbanos. Segue-se a conceituação e aspectos teóricos dessas três ferramentas básicas utilizadas. A metodologia propriamente dita traz os planos de informações originais e as suas respectivas fontes de informações, os processos de classificação de imagens digitais empregados e os modelos de cruzamentos desenvolvidos para um SIG. A área teste escolhida é a sub-bacia do Arroio Feijó, localizada na região metropolitana de Porto Alegre, na porção centro-leste do Estado do Rio Grande do Sul. A região é caracterizada por uma elevada densidade populacional, pela presença de áreas inundáveis e pela ocorrência de processos eroslVOS. Os resultados mostram que a metodologia proposta é adequada e eficiente para agilizar as atividades de planejamento urbano, subsidiando a elaboração de Planos Diretores de Desenvolvimento Integrado e orientando o crescimento das cidades para regiões mais favoráveis. Além disso, contribui para a prevenção de parcela dos riscos e problemas geotécnicos relacionados ao meio físico nas áreas urbanas.
Resumo:
Este trabalho analisa as propriedades de alguns índices em busca da melhor aproximação (proxy) para a carteira de mercado brasileira. Além dos usuais Ibovespa, IBrX, FGV-100, são considerados dois índices construídos segundo as diretrizes da Moderna Teoria de Carteiras, a saber, uma carteira ponderada pelo valor de mercado (PV) e uma carteira igualmente ponderada (PI). Em um primeiro teste é analisada a eficiência em média e variância e em um segundo avalia-se o potencial dos índices como fatores de risco sistemático. O estudo cobre o período de 1996 a 2009 e todas as ações negociadas na BOVESPA. Os resultados evidenciam a semelhança nas qualidades dos índices, não sendo possível destacar uma melhor aproximação. Ibovespa, IBrX e FGV-100 são aproximações razoáveis e podem ser utilizadas.
Resumo:
O objetivo desta tese é analisar, orientar e indicar algumas formas de mensuração de resultados das ações ou programas na área de Gestão de Pessoas ao longo dos anos, bem como de novas tendências no setor de agroenergia. O trabalho procura também propor práticas de planejamento estratégico e, indicadores para as organizações com foco no desenvolvimento e nas mudanças previstas nas organizações, no mercado de trabalho, nos modelos de gestão e de negócios do segmento de produção de cana-de-açúcar para os próximos anos. No estudo são analisados as transformações organizacionais, novos desafios competitivos do presente e do futuro, e a forma como a área de Recursos Humanos nas diversas organizações do setor, tem acompanhado tal processo, verificando o impacto dessas ações em um contexto de mudanças nos processos da cadeia agrícola (mecanização do plantio, colheita,.dentre outros), da cadeia industrial (biorefinarias, etanol de segunda geração, gaseificação...dentre outros), e no desenvolvimento organizacional e humano como parte integrante de um programa de sustentabilidade das organizações. São abordados metodologias, sistemas e ferramentas de planejamento estratégico, e mensuração propostas por certos autores que visam a demonstrar o impacto das estratégias e as ações na Gestão de Pessoas em direção ao cumprimento das metas e objetivos das organizações, em um cenário de forte crescimento interno e global do mercado de bioenergia. Nesse cenário, expõe-se e discute-se como as empresas do setor sucroalcooleiro utilizam, na prática, essas metodologias e os indicadores de performance da área frente às necessidades, e indicam-se as melhores práticas e ferramentas que visam a facilitar os processos decisórios, o uso de métricas de Recursos Humanos para previsão e acompanhamento do Capital Humano, e a otimização dos recursos e dos investimentos frente aos novos desafios do setor. Embora já se notem várias iniciativas visando a tornar a Gestão de Pessoas um fator estratégico para as organizações da agroenergia, a pesquisa identificou que a área de Recursos Humanos está evoluindo nessa direção e pode contribuir de forma efetiva para a melhor performance e sustentabilidade dos negócios. Palavras chaves: Cana-de Açúcar, Estratégia Organizacional, Capital Humano
Resumo:
O presente artigo tem por objetivo testar a hipótese de contágio entre os índices dos mercados nanceiros dos Estados Unidos, Brasil, Japão e Inglaterra para o período de 2000 a 2009. Cópulas variantes no tempo foram usadas para captar o impacto da crise do Subprime na dependência entre mercados. O modelo implementado foi um modelo ARMA(1,0) st-GARCH(1,2) para as distribuições marginais e cópulas gaussiana (Normal) e Joe-Clayton (SJC) para a distribuição conjunta. Os resultados obtidos permitem concluir que tanto para a cópula gaussiana quanto para a cópula SJC há evidências de contágio entre o mercado americano e o mercado brasileiro. Para os outros dois mercados londrino e japonês, as evidências da presença de contágio entre estes mercados e o americano não mostraram-se suficientemente claras em ambas as cópulas.
Resumo:
O Brasil é o segundo produtor mundial de soja [Glycine max (L.) Merr.] e o sétimo de óleo vegetal. A produção brasileira desta oleaginosa alcançou 61 milhões de toneladas na safra 2007/08 e projeta-se, para 2020, produção de 105 milhões de toneladas. O consumo de biodiesel em 2008 representou um milhão de toneladas e a demanda por este biocombustível deverá atingir 3,1 milhões de toneladas em 2020. Para atender esta demanda haverá ampliação da área plantada principalmente na região Centro-Oeste, mas também exigirá esforços no aumento de produtividade. Visando melhor conhecimento das inferências das variáveis climáticas temperatura e radiação global sobre o desenvolvimento da soja e sua produtividade de grãos e óleo, foi proposto um modelo estocástico com distribuição normal truncada para os dados de temperatura máxima, mínima e média. Também foi incluído neste modelo distribuição triangular assimétrica para determinação da produtividade de óleo mais provável. Foram estipuladas oito datas de semeadura para a localidade de Piracicaba/SP onde está localizada a estação meteorológica da ESALQ/USP, fornecedora dos dados climáticos utilizados neste estudo. Conclui-se que: (i) ao longo das datas de semeadura houve redução do ciclo com o aumento da temperatura média; (ii) a redução do ciclo da cultura de soja interferiu nas produtividades de grãos e de óleo; (iii) a radiação global média nos trinta dias após a antese refletiram-se na partição de fotoassimilados e na produtividade de grãos e óleo; (iv) os modelos estocásticos podem ser utilizados para a previsão das produtividades de soja e óleo.
Resumo:
O objetivo desse trabalho é a comparação das previsões obtidas através da base de dados da pesquisa Focus do Banco Central do Brasil, para as Projeções de Mercado de câmbio, juros e inflação. O trabalho não visa avaliar ou julgar modelos, mas sim utilizar os mesmos como um suporte na avaliação da comparação preditiva. Desse modo procuramos avaliar e/ou comparar se os desvios entre as projeções de mercado e os indicadores efetivamente realizados são melhores do que os desvios entre um modelo econométrico e os mesmos indicadores efetivamente realizados. De um modo geral veremos que a pesquisa Focus do Banco Central do Brasil tem um poder preditivo satisfatória para todos os índices, se comparado com as previsões obtidas através dos modelos econométricos em estudo.
Resumo:
O presente estudo teve como objetivo examinar a existência e a relevância do canal de empréstimos bancários na transmissão da política monetária no Brasil no período de janeiro de 2000 a dezembro de 2010. Foram utilizados dados agregados do mercado de crédito e monetário disponíveis no sítio do Banco Central do Brasil. A metodologia utilizada foi a de um modelo VEC em consonância com o trabalho de Mello e Psiu (2009). A grande vantagem da utilização desta metodologia é o fato dela permitir múltiplas relações de cointegração entre as variáveis e que contorna o problema de identificação da oferta e demanda por crédito quando se utiliza dados agregados. As análises dos resultados permitem concluir que o canal de empréstimos bancários esteve presente e foi relevante nos anos 2000 no Brasil. Além disso, o estudo analisa se os agregados de crédito trazem informações relevantes para a previsão do produto e da inflação. Para isso, utiliza-se das relações de causalidade de Granger e funções resposta a impulsos. Desta análise, conclui-se que os agregados de crédito contêm informações relevantes para prever o produto e para inflação, o que legitima as ações do BACEN para controlar os agregados de crédito no mercado e confirma que são eficazes para atingir as metas de inflação, nas defasagens analisadas.
Resumo:
As expectativas de inflação medidas pelos agentes passaram a ser fundamentais após a implantação do regime de metas inflacionárias pelo Banco Central. Este trabalho procura verificar o poder preditivo da inflação estimada pelos agentes que contribuem para as expectativas do Relatório Focus e as inflações medidas pelo diferencial entre títulos pré-fixados e cupons de títulos indexados ao IPCA, as chamadas inflações implícitas ou compensatórias. Procura-se verificar qual das variáveis apresenta melhor capacidade de previsão da inflação realizada através da constituição de modelos de regressão linear. Também se busca mostrar a acuidade dessas variáveis em intervalos de tempos futuros de 3 (três) a 30 (trinta) meses. O trabalho revela que as inflações implícitas são melhores estimadores que as inflações medidas pelo Focus para períodos mais longos acima de 9 (nove) meses, porém o último tem maior poder preditivo para horizontes curtos de até 6 (seis) meses.
Resumo:
A tese tem como objetivo discutir a liquidez do mercado secundário de títulos da dívida pública no Brasil. Em três ensaios, defende que problemas de organização do mercado prejudicam a ampliação da liquidez e que a formação de preços nesse mercado acompanha as taxas do mercado futuro de depósitos interfinanceiros – DI futuro, e não o contrário, como esperado, já que a presença de títulos de elevada liquidez no mercado à vista é que deveria desenvolver o mercado futuro. O primeiro ensaio mede e estima os determinantes do bid-ask spread cotado (indicador de liquidez) para cada vértice de taxa de juros, tendo como referência os vencimentos dos títulos pré-fixados em cabeça de semestre: LTNs (LTN-13 e LTN-11) e NTNFs- (NTNF-17, NTNF-14). Mercados com menores spreads são mais líquidos, mercados com spreads maiores são menos líquidos. Os modelos empíricos foram estimados por meio de análises de séries de tempo. O trabalho utiliza o cálculo do bid-ask cotado para medir a liquidez dos títulos em análise, medido pela diferença entre o ask price e o bid price de fechamento do mercado. A estimação dos determinantes da liquidez de mercado foi realizada com base no método dos mínimos quadrados ordinários (MQO). O modelo testa se maturidade e volume de negócio determinam o bid-ask spread dos títulos. Mercados com menores spreads são mais líquidos do que mercados com maiores spreads. Os resultados mostram que a mediana e a média do bid-ask spread cotado crescem com a maturidade dos títulos. Os sinais dos parâmetros das regressões confirmam para a maioria dos vértices dos vértices analisados neste trabalho a hipótese inicial de que o bid-ask spread aumenta com a elevação maturidade e diminui com maior volume negociado, confirmando a hipótese de baixa liquidez dos títulos públicos no mercado secundário brasileiro. O segundo ensaio analisa uma singularidade relevante do mercado brasileiro: a dependência da formação dos preços e da taxa de juros no mercado secundário de títulos públicos (LTN e NTNF) em relação ao DI futuro. As variáveis utilizadas foram o bid-ask spread cotado e o volume negociado no mercado de títulos públicos e de DI futuro. O ensaio utiliza tanto o método de Granger (1969), que tem como suposto que as informações relevantes para a previsão das variáveis estão contidas exclusivamente nos dados das séries temporais destas mesmas variáveis, quanto o modelo de Geweke (1982) para testar a causalidade, simultaneidade e dependência linear entre as duas séries no tempo. Os resultados confirmam a hipótese inicial de que bid-ask spread e volume de títulos públicos possuem forte dependência do bid-ask spread e do volume para contratos de DI futuro de mesmo vencimento, dependência devida à causalidade do mercado de DI futuro para o mercado de títulos públicos para a maioria dos vértices analisados nesse trabalho, indicando que a taxa CDI é benchmark para a precificação dos títulos públicos. Uma possível explicação está nos fatores de microestrutura, que fazem com que esse mercado seja o mais conveniente para negociar risco de liquidez e de mercado. O terceiro ensaio discute as implicações do desenho institucional sobre a liquidez do mercado secundário de títulos públicos - mecanismos e regras de negociação, desenho dos títulos e base de investidores. Essas regras afetam a formação dos preços no mercado, definem as trocas, a dimensão da assimetria de informação e os custos de transação e do processo de negociação. Pela sua relevância, a organização do mercado de títulos públicos tem sido objeto de reformas em diversos países. O terceiro ensaio é finalizado com a análise das medidas adotadas no Brasil e de seus resultados.
Resumo:
Os resultados econômico-financeiros das empresas sofrem influência do ambiente macroeconômico no qual elas estão inseridas. Prever com sucesso o desempenho futuro das organizações é um objetivo que motiva gestores, analistas, pesquisadores, credores e investidores. O entendimento das relações entre as variáveis contábeis e macroeconômicas é um poderoso instrumento na formação de expectativas de resultados para as empresas. No presente estudo, selecionamos cinco grandes empresas pertencentes ao setor varejista e cuja atuação é restrita ao mercado interno brasileiro, com o objetivo de desenvolver e testar empiricamente um modelo econométrico que seja robusto o suficiente para prever as vendas futuras das empresas em questão. Considerando que são cinco varejistas bastante diferentes do ponto de vista dos produtos vendidos, que vão de alimentos a bens duráveis, os resultados encontrados mostraram-se proveitosos à medida que comprovaram que as variáveis macroeconômicas não exercem o mesmo grau de influência sobre elas.
Resumo:
Neste trabalho buscamos evidências, para o caso brasileiro, da Hipótese da Renda Permanente. Primeiro, investigamos a existência de tendências e ciclos comuns entre as séries de consumo e renda per capita. Então, usando o resultado de co-movimentos entre as variáveis decompomos cada série em tendência e ciclo, através dos modelos de componentes não observados de Harvey (1989). Por fim, usando os modelos de vetores autorregressivos, decompomos a variância dos erros de previsão, seguindo a metodologia de Blanchard e Quah (1989), com o objetivo de avaliarmos a importância relativa dos choques permanentes e transitórios para as variações do consumo. Os resultados apontam que as inovações permanentes são responsáveis pela maior parte das variações no consumo. Este resultado embora rejeite a Hipótese da Renda Permanente, indica que o consumo responde pouco a variações transitórias na renda, ou seja, os choques temporários têm pouca importância para o consumo.
Resumo:
Este trabalho propõe um instrumento capaz de absorver choques no par BRL/USD, garantindo ao seu detentor a possibilidade de realizar a conversão entre essas moedas a uma taxa observada recentemente. O Volatility Triggered Range Forward assemelha-se a um instrumento forward comum, cujo preço de entrega não é conhecido inicialmente, mas definido no momento em que um nível de volatilidade pré-determinado for atingido na cotação das moedas ao longo da vida do instrumento. Seu cronograma de ajustes pode ser definido para um número qualquer de períodos. Seu apreçamento e controle de riscos é baseado em uma árvore trinomial ponderada entre dois possíveis regimes de volatilidade. Esses regimes são determinados após um estudo na série BRL/USD no período entre 2003 e 2009, basedo em um modelo Switching Autoregressive Conditional Heteroskedasticity (SWARCH).