1000 resultados para dinâmica florestal
Resumo:
Este trabalho trata basicamente de investigar a estrutura de polarização da cidade de Porto Alegre. É proposto que a cidade constitui um sistema de diferenciação espacial primário, no qual emergem centros de comércio e serviços em espaços-chave da malha urbana - trechos lineares pertencentes às vias estruturadoras - à medida que esta cresce e se consolida, equilibrando permanentemente a equação entre núcleos de concentração e tecidos recorrentes. Os centros são definidos conceitualmente e seu processo formativo é brevemente analisado. Critérios são elencados para sua seleção e inclusão no corpo de estudo. Níveis intermediários de diferenciação interno à categoria das centralidades são então trabalhados, com base na quantificação das características da forma e das propriedades do arranjo espacial e na leitura qualitativa da dinâmica funcional. Finalmente é construído um nível final de diferenciação entre os centros, combinando os atributos espaciais quantificados, as variáveis funcionais e a própria mecânica de relacionamento entre essas duas esferas. O resultado desta combinação é denominado personalidade urbana, a qual é confrontada com um parâmetro definidor do seu caráter e papel no sistema evolutivo da cidade: o Espaço Urbano Espesso. As referências conceituais e metodológicas situam-se no campo dos estudos configuracionais urbanos, especificamente a Sintaxe Espacial, que trata de investigar a realidade urbana a partir do entendimento de que a forma física e os padrões espaciais interferem ou influenciam os demais fenômenos que manifestam-se na cidade.
Resumo:
As operações de alta frequência (High-Frequency Trading - HFT) estão crescendo cada vez mais na BOVESPA (Bolsa de Valores de São Paulo), porém seu volume ainda se encontra muito atrás do volume de operações similares realizadas em outras bolsas de relevância internacional. Este trabalho pretende criar oportunidades para futuras aplicações e pesquisas nesta área. Visando aplicações práticas, este trabalho foca na aplicação de um modelo que rege a dinâmica do livro de ordens a dados do mercado brasileiro. Tal modelo é construído com base em informações do próprio livro de ordens, apenas. Depois de construído o modelo, o mesmo é utilizado em uma simulação de uma estratégia de arbitragem estatística de alta frequência. A base de dados utilizada para a realização deste trabalho é constituída pelas ordens lançadas na BOVESPA para a ação PETR4.
Resumo:
Este estudo tem por objetivo verificar a evolução da abertura de agências bancárias no Brasil e em específico de dois grandes bancos privados brasileiros ao longo dos anos de 1991 a 2012 e entender sua relação, seja ela de curto, médio e/ou longo prazo, com a evolução tecnológica no país, a fim de observar a correlação entre esses dois ritmos, por meio de uma regressão entre as variáveis em estudo. O que se espera inferir aqui é uma relação crescente, porém em velocidades distintas tendo em vista o grande avanço tecnológico vivenciado nos últimos 10 anos. Ao olhar as séries dos dois grandes bancos em específico, pretende-se, por meio de um teste de cointegração em séries de tempos, caracterizar um modelo explicativo da competição por posições no mercado e consequente disputa pela liderança em participação de agências. Por fim, com base nos dados de quantitativo de agências e lucratividade do Sistema Financeiro Nacional e dos dois grandes bancos estudados, pretende-se observar a relação desse ritmo (taxa de crescimento da abertura de agências) com o retorno obtido em termos de lucro por agência, seu principal ponto de venda. Ao criar estes indicadores comparativos espera-se verificar evidências a respeito de lucratividade em bancos para a configuração sugerida no Paradigma da Eficiência . O crescente uso de internet está modificando um importante traço de comportamento dos clientes potenciais que influencia sua maneira de se relacionar com os serviços financeiros e, essa dinâmica estratégica, pode servir de referência para o desenvolvimento de um novo padrão de “estabelecimento bancário”.
Resumo:
Conhecer melhor alguns dos condicionantes do processo de urbanização, seu ritmo sua natureza, é instrumento básico para a atuação do administrador e planejador urbano. Cabe a este conjunto de profissionais, a tarefa de compatibilizar as diretrizes de desenvolvimento físico-espacial com a estratégica econômica dominante, a fim de poder instrumentar e implementar as intervenções sobre o meio urbano. O objetivo geral do trabalho é buscar uma melhor compreensão do funcionamento do mercado imobiliário e do processo de valorização fundiária, face a introdução de um fator polarizador de atração do investimento público na forma de um serviço.
Resumo:
A presente dissertação estabelece paralelos entre a Teoria Administrativa e as instituições financeiras. Aborda a evolução do Sistema Financeiro Nacional, destacando relações de causa e efeito que contribuíram para o seu perfil atual. Identifica, descreve e relaciona políticas monetárias, produtos bancários e comportamentos adaptativos e/ ou estratégias de diversas instituições do sistema financeiro do País. Indica perspectivas e tendências para as instituições financeiras.
Resumo:
A crescente valorização imobiliária das áreas urbanas, que força acréscimos na altura dos edifícios, associada ao desenvolvimento de materiais mais resistentes e técnicas construtivas modernas, que promovem uma tendência ao projeto de estruturas mais esbeltas e flexíveis, formam um cenário propício à ocorrência de problemas associados à resposta dinâmica frente à ação do vento, principalmente à parte flutuante decorrente da turbulência atmosférica.A experiência tem mostrado que o engenheiro estruturalista comum tem pouco ou nenhum conhecimento sobre os efeitos dinâmicos do vento e as conseqüências da vizinhança sobre este carregamento. Por estas razões justifica-se todo o esforço feito no sentido de se estudar, divulgar e tornar mais acessíveis os métodos disponíveis para análise da resposta estrutura à ação dinâmica do vento e os efeitos de vizinhança. Este é o objetivo central do trabalho de dissertação aqui proposto, consiste no estudo crítico, na aplicação prática e na comparação de métodos disponíveis de análise, quais sejam: a Norma Brasileira NBR – 6123, a sua análise estática e dinâmica (Capítulo 9), a Norma Canadense NBCC (1985). Como parte do trabalho foram realizadas análises estruturais detalhadas com programas de elementos finitos, bem como práticas experimentais sobre modelos rígidos no Túnel de Vento Prof. Joaquim Blessmann (TV-2) da UFRGS. Os resultados obtidos através da instrumentação dos modelos ensaiados em túnel de vento foram aplicados às prescrições das normas aqui estudadas. As respostas assim obtidas comparadas com as oriundas da aplicação das recomendações padrão destas normas foram avaliadas comparativamente. Sendo possível concluir que os resultados determinados através das prescrições da norma brasileira de vento apresentaram-se mais consistentes que os da norma canadense. Mesmo assim, alguns pontos necessitam de um estudo maior e mais aprofundado principalmente as considerações referentes à torção, que se mostraram na maioria das vezes contra a segurança, além do efeito da vizinhança que, muitas vezes, causa efeitos imprevisíveis sobre a edificação.
Resumo:
As modernas aplicações em diversas áreas como multimídia e telecomunicações exigem arquiteturas que ofereçam altas taxas de processamento. Entretanto, os padrões e algoritmos mudam com incrível rapidez o que gera a necessidade de que esses sistemas digitais tenham também por característica uma grande flexibilidade. Dentro desse contexto, tem-se as arquiteturas reconfiguráveis em geral e, mais recentemente, os sistemas reconfiguráveis em um único chip como soluções adequadas que podem oferecer desempenho, sendo, ao mesmo tempo, adaptáveis a novos problemas e a classes mais amplas de algoritmos dentro de um dado escopo de aplicação. Este trabalho apresenta o estado-da-arte em relação a arquiteturas reconfiguráveis nos meios acadêmcio e industrial e descreve todas as etapas de desenvolvimento do processador de imagens reconfigurável DRIP (Dynamically Reconfigurable Image Processor), desde suas origens como um processador estático até sua última versão reconfigurável em tempo de execução. O DRIP possui um pipeline composto por 81 processadores elementares. Esses processadores constituem a chave do processo de reconfiguração e possuem a capacidade de computar um grande número de algoritmos de processamento de imagens, mais específicamente dentro do domínio da filtragem digital de imagens. Durante o projeto, foram desenvolvidos uma série de modelos em linguagem de descrição de hardware da arquitetura e também ferramentas de software para auxiliar nos processos de implementação de novos algorimos, geração automática de modelos VHDL e validação das implementações. O desenvolvimento de mecanismos com o objetivo de incluir a possibilidade de reconfiguração dinâmica, naturalmente, introduz overheads na arquitetura. Contudo, o processo de reconfiguração do DRIP-RTR é da ordem de milhões de vezes mais rápido do que na versão estaticamente reconfigurável implementada em FPGAs Altera. Finalizando este trabalho, é apresentado o projeto lógico e elétrico do processador elementar do DRIP, visando uma futura implementação do sistema diretamente como um circuito VLSI.
Resumo:
O trabalho foi conduzido na EEA/UFRGS em 2003. O objetivo foi avaliar a eficiência do disco medidor de forragem, do bastão graduado e do medidor de capacitância em predizer a massa de forragem de azevém bem como o de avaliar as diferenças nas variáveis morfogênicas (taxa de elongação de folhas, taxa de surgimento de folhas, tempo de vida da folha) e estruturais da pastagem (numero de folhas verdes, comprimento de folhas e densidade de perfilhos) pela técnica de perfilhos marcados em função dos tratamentos adotados (intensidades e métodos de pastejo). Para determinar a eficiência dos instrumentos foram realizados dois experimentos: o experimento 1 avaliandose a eficiência do disco, bastão e medidor de capacitância em predizer a massa de forragem da pastagem na fase de estabelecimento num delineamento completamente casualizado com 32 repetições e três tratamentos e o experimento 2 avaliando-se a eficiência do disco medidor e do bastão graduado como preditores da massa de forragem sob lotação rotacionada em duas intensidades de pastejo (baixa e moderada) definidas por ofertas de forragem representando, respectivamente, 2,5 ou 5,0 vezes o potencial de consumo dos cordeiros num delineamento em blocos casualizados em arranjo fatorial com quatro repetições. Para determinar as variáveis morfogênicas, estruturais e o fluxo de tecidos os tratamentos foram duas intensidades (baixa e moderada) e dois métodos de pastejo (pastejo com lotação contínua e rotacionada). No experimento 1 o bastão graduado apresentou a melhor correlação com a massa de forragem (r2=0,65). No 2 as melhores correlações foram obtidas quando avaliadas as faixas de pós-pastejo para o disco medidor (r2=0,47) e as de pré-pastejo para o bastão graduado (r2=0,36). Para as variáveis morfogênicas e estruturais as intensidades de pastejo foram responsáveis por diferenças na taxa de elongação de folhas (intensidade baixa resultou em maior taxa de elongação) e nas características estruturais (intensidade baixa resultou em menor densidade de perfilhos, maior comprimento e número de folhas vivas). Os métodos de pastejo influenciaram as características morfogênicas (lotação contínua resultou em maior taxa de elongação de folhas, maior taxa de surgimento e tempo de vida das folhas no ciclo de observação I) e estruturais (lotação contínua resultou em maior densidade de perfilhos); bem como foi obtida interação com as intensidades e com os ciclos de avaliação. O fluxo de crescimento (favorecido por lotação rotacionada a baixa intensidade) e de senescência (favorecido por lotação contínua a baixa intensidade) foram afetados pelos tratamentos, enquanto que o fluxo de consumo não foi alterado pelos tratamentos.
Resumo:
Essa dissertação tem como objetivo a modelagem, implementação e a simulação de um mercado de leilão duplo artificial utilizando a abordagem multiagente. Mercado de leilão duplo permite que ofertas de compra e de venda possam ser feitas a qualquer momento e de forma contínua. As bolsas de Nova Iorque (NYSE) e de Chicago (CME) são exemplos deste tipo de leilão. Mercados artificiais são modelos que têm o objetivo de capturar as propriedades dos mercados reais para reproduzir e analisar a dinâmica do mercado através de experimentos computacionais. Assim como no mercado real, o modelo propõe que os agentes interagem entre si assincronamente em sessões de negociações contínuos. Estas últimas características do modelo são viabilizadas através do uso de técnicas e arcabouços tecnológicos que são atualmente utilizados nos mercados reais. Neste trabalho, são investigados os comportamentos do mercado artificial para diferentes grupos de agentes e parâmetros. Ao longo dos experimentos foram constatados que o volume de negociação e a volatilidade dos preços, por exemplo, são diretamente proporcionais ao orçamento dos agentes. Também foram identificados alguns fatos estilizados nas séries de preços geradas a partir do mercado artificial.
Resumo:
Modelos de predição baseados em estimações não-paramétricas continuam em desenvolvimento e têm permeado a comunidade quantitativa. Sua principal característica é que não consideram a priori distribuições de probabilidade conhecidas, mas permitem que os dados passados sirvam de base para a construção das próprias distribuições. Implementamos para o mercado brasileiro os estimadores agrupados não-paramétricos de Sam e Jiang (2009) para as funções de drift e de difusão do processo estocástico da taxa de juros instantânea, por meio do uso de séries de taxas de juros de diferentes maturidades fornecidas pelos contratos futuros de depósitos interfinanceiros de um dia (DI1). Os estimadores foram construídos sob a perspectiva da estimação por núcleos (kernels), que requer para a sua otimização um formato específico da função-núcleo. Neste trabalho, foi usado o núcleo de Epanechnikov, e um parâmetro de suavizamento (largura de banda), o qual é fundamental para encontrar a função de densidade de probabilidade ótima que forneça a estimação mais eficiente em termos do MISE (Mean Integrated Squared Error - Erro Quadrado Integrado Médio) no momento de testar o modelo com o tradicional método de validação cruzada de k-dobras. Ressalvas são feitas quando as séries não possuem os tamanhos adequados, mas a quebra estrutural do processo de difusão da taxa de juros brasileira, a partir do ano 2006, obriga à redução do tamanho das séries ao custo de reduzir o poder preditivo do modelo. A quebra estrutural representa um processo de amadurecimento do mercado brasileiro que provoca em grande medida o desempenho insatisfatório do estimador proposto.