126 resultados para Mineração de dados (Computação)


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A maioria dos estudos de impactos de pólos geradores de viagens são desenvolvidos a partir da adequação de metodologias desenvolvidas em diferentes contextos e disponíveis na literatura. Este trabalho buscou avaliar a adequação de algumas destas propostas, em termos de área de influência, distribuição de viagens e escolha modal, em shopping centers de Porto Alegre. Os dados para análise foram provenientes de uma pesquisa origem e destino realizada recentemente em Porto Alegre por meio de entrevistas domiciliares (EDOM). A partir da comparação dos resultados obtidos na análise de cinco shopping centers, foi possível identificar a relação entre as características dos usuários, da região de entorno e do padrão de viagens dos empreendimentos. Com relação à escolha modal, observou-se que as características do empreendimento, a facilidade de acesso ao pólo pelos diversos modos de transporte disponíveis e os aspectos sócio-econômicos da área de influência são variáveis que podem explicar a escolha do modo utilizado. Para a delimitação da área de influência dos shopping centers, constatou-se que as propostas que utilizam a distância de viagem como critério para definição se mostraram mais realistas do que aquelas que adotam o tempo de viagem como base. Na distribuição de viagens, verificou-se que o perfil econômico dos residentes na área de influência, bem como informações que caracterizem as atividades existentes nas zonas de tráfego são variáveis que podem explicar a distribuição de viagens de shopping centers. Por fim, concluiu-se que o banco de dados da EDOM é uma fonte de dados potencial na análise da demanda de shopping centers.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os processamentos de imagens orbitais efetuados através de técnicas de sensoriamento remoto geraram informações qualitativas de natureza textural (morfo-estruturas). Estas permitiram (1) o reconhecimento de áreas com diferentes padrões estruturais tendo diferentes potencialidades para a prospecção de fluorita, (2) a identificação de novos lineamentos estruturais potencialmente favoráveis à mineralização e (3) evidenciaram prolongamentos extensos para as principais estruturas mineralizadas, (4) às quais se associam um grande número de estruturas, antes desconhecidas, com grande potencial prospectivo. O aprimoramento de técnicas de classificação digital sobre produtos de razões de bandas e análise por componentes principais permitiu identificar a alteração hidrotermal associada às estruturas, incorporando novos critérios para a prospecção de fluorita. Buscando-se quantificar os dados de alteração hidrotermal, foi efetuada a análise espectrorradiométrica das rochas do distrito fluorítico. Integrando estas informações com dados TM LANDSAT 5, em nível de reflectância, obteve-se a classificação espectral das imagens orbitais, o que permitiu a identificação de estruturas menores com um detalhe nunca antes obtido. Os processamentos de dados aerogeofísicos forneceram resultados sobre estruturas (magnetometria) e corpos graníticos afetados por alteração hidrotermal (aerogamaespectrometria). Estes produtos foram integrados com dados TM LANDSAT 5 associando o atributo textural da imagem orbital ao comportamento radiométrico das rochas. Diagnosticou-se o lineamento Grão-Pará como o principal prospecto do distrito. E levantaram-se uma série de dados sobre a compartimentação tectônica da região, a zonação de fácies das rochas graníticas (rocha fonte do flúor) e as alterações hidrotermais associadas ao magmatismo granítico. Isto permitiu a compreensão da distribuição regional dos depósitos de fluorita, adicionando-se um novo critério à prospecção de fluorita, a relação espacial entre a mineralização e a rocha fonte de F. Esta última corresponde à fácies granítica da borda do Maciço Pedras Grandes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A elaboração de diagnósticos e a tomada de decisões sobre o meio físico, com a finalidade de estabelecer diretrizes para a ocupação racional do solo, são cada vez mais prementes, especialmente, no que diz respeito ao direcionamento da expansão urbana para áreas mais favoráveis. Da mesma forma, a facilidade de acesso aos parâmetros geotécnicos de uma região constituí um inestimável recurso nas etapas preliminares dos projetos de Engenharia, no planejamento de atividades extrativas e nos programas de preservação ambiental. A cartografia geotécnica, nesse sentido, tem sido um dos instrumentos mais eficientes para a avaliação do meio físico nas últimas décadas. Entretanto, o desenvolvimento de um mapa geotécnico requer a análise de um grande número de informações que precisam ser tratadas e combinadas com rapidez. Esta tese apresenta uma metodologia para a integração de dados, por meio da ferramenta básica geoprocessamento, visando agilizar, na fase de escritório, a elaboração de mapas geotécnicos e a análise de determinados aspectos do meio físico sob o ponto de vista da Geotecnia, bem como suas interações com a mancha urbana existente. A área teste escolhida é o município de Porto Alegre (RS) situado na porção leste do estado do Rio Grande do Sul, à margem esquerda do Lago Guaiba, cuja paisagem é marcada pela diversidade de cenários naturais formados por terrenos de coxilhas, morros, cristas, lagos e planícies. A metodologia envolve a captura, o processamento e a integração de informações provenientes de fontes diversas como mapas temáticos, levantamento aerofotogramétrico, cartas topográficas, fotografias aéreas, imagens de satélite, boletins de sondagens SPT (Standart Penetration Test), dissertações e teses acadêmicas. Para isso, é constituída por nove etapas distintas, que utilizam: a) sistema de digitalização para a conversão de informações analógicas para o meio digital; b) modelagem digital do terreno (MDT) para o modelamento e a identificação do relevo, a determinação de declividades, o mapeamento de áreas com isodeclividades e o cálculo do fator topográfico, esse último objetivando a determinação da suscetibilidade à erosão laminar; c) técnicas de processamento e classificação de imagens orbitais para os mapeamentos das áreas inundáveis e da mancha urbana; d) Sistemas de Informações Geográficas (SIGs) para o processamento e a integração de informações georreferenciadas no computador; e) banco de dados digital para o armazenamento de dados descritivos sobre o meio físico e parâmetros geotécnicos obtidos em laboratório, sondagens e outras formas de investigação in situ. A estimativa das unidades geotécnicas é procedida com base na proposta metodológica para mapeamento geotécnico desenvolvida por Davison Dias (1995), na Universidade Federal do Rio Grande do Sul (UFRGS). Além da elaboração do mapa geotécnico, a metodologia propõe a análise e o cruzamento de vários fatores do meio físico com a mancha urbana existente, ou com uma subárea pertencente à região de estudo, a geração de mapas de aptidão do solo para diferentes usos e a identificação das áreas consideradas de eventos perigosos e de risco geológico. Os principais softwares empregados são o AutoCAD@, o SURFER@, ACESS@ e o IDRISI 2.0@, desenvolvido pela Clark University, USA. Os resultados obtidos a partir da implementação da metodologia demonstraram a importância e a contribuição que a ferramenta básica geoprocessamento pode trazer aos estudos geotécnicos. Os diferentes sistemas de geoprocessamento utilizados para a manipulação e tratamento das informações espaciais mostraram-se adequados e eficientes quando aplicados na coleta, processamento e integração de dados geotécnicos. Para a área teste foram identificadas trinta e sete unidades com perfis de solos com comportamento geotécnico praticamente similar frente ao uso e à ocupação do solo, cujas informações descritivas sobre o meio físico puderam ser facilmente acessadas e visualizadas, no computador, por meio da integração banco de dados geotécnicos com Sistema de Informações Geográficas. Por outro lado, o emprego de técnicas de processamento e classificação de imagens digitais revelou-se um recurso importante para a obtenção de informações sobre o meio físico, enquanto o uso de modelagem digital do terreno (MDT) agilizou o mapeamento das declividades e o cálculo da suscetibilidade potencial à erosão laminar, além de permitir a geração do relevo em perspectiva da região estudada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A implementação da outorga do uso da água no Brasil implica no estabelecimento de um balanço hídrico de disponibilidades quali-quantitativas, que permita, ao gestor do recurso hídrico, determinar se existe possibilidade de incluir algum uso novo na bacia hidrográfica ou se é necessário algum tipo de racionamento do uso da água. Este balanço deve garantir que as vazões necessárias para o abastecimento público e para a manutenção dos ecossistemas aquáticos e ribeirinhos sejam mantidas. Nesta tese, discute-se a evolução da ecologia de rios e sua implicação nas metodologias desenhadas para avaliação de vazões ecológicas, demonstrando-se que metodologias sintonizadas com os avanços teóricos da ecologia de rios somente surgem no final do século XX e início do século XXI. Discute-se, também, a necessidade de desenvolvimento de metodologias constituídas com ancoragem ecológica em situações de carência ou ausência de dados, que compõem a realidade da maior parte da rede hidrográfica brasileira. Propõe-se uma metodologia e apresenta-se um programa (FFTSint) para avaliação da significância de pulsos em análise espectral de séries temporais de vazões diárias, com base em séries sintéticas, partindo-se do pressuposto de que processos adaptativos, manifestados em termos de tipos funcionais de plantas, dependem de um grau de previsibilidade dos pulsos (associada a pulsos significativos) A série de vazões diárias, filtrada com utilização do FFTSint, é o hidrograma significativo, que pode, então ser estudado através de programas como o IHA e Pulso. Aplicou-se esta abordagem metodológica na estação fluviométrica Rosário do Sul, rio Santa Maria, Estado do Rio Grande do Sul, Brasil, onde verificou-se que o hidrograma significativo, está associado às cotas mais baixas da planície de inundação, enquanto que os componentes aleatórios do hidrograma estão associados às cotas mais altas. Discute-se que processos adaptativos estão associados aos componentes previsíveis, enquanto que processos sucessionais estão mais associados aos aleatórios. Esta observação permitiu a construção de um conjunto de limitações ecológicas ao regime de vazões resultantes do uso na bacia hidrográfica, utilizando-se descritores do regime de pulsos da série não filtrada (original) para as cotas mais altas e descritores filtrados com alta significância para as cotas mais baixas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho é investigada uma abordagem para extração de feições baseada na otimização da distância de Bhattacharyya em um classificador hierárquico de estrutura binária. O objetivo é mitigar os efeitos do fenômeno de Hughes na classificação de dados imagem hiper-espectrais. A utilização de um classificador em múltiplo-estágio, analisando um sub-conjunto de classes em cada etapa ao invés do conjunto total, permite modos mais eficientes para extrair as feições mais adequadas em cada etapa do procedimento de classificação. Em uma abordagem de árvore binária, somente duas classes são consideradas em cada etapa, permitindo a implementação da distância de Bhattacharyya como um critério para extração de feições em cada nó da árvore. Experimentos foram realizados utilizando dados imagem do sensor AVIRIS. A performance da metodologia proposta é comparada com métodos tradicionais para extração e seleção de feições.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A evolução da Computação Baseada em Clusters, impulsionada pelo avanço tecnológico e pelo custo relativamente baixo do hardware de PCs, tem levado ao surgimento de máquinas paralelas de porte cada vez maior, chegando à ordem das centenas e mesmo milhares de nós de processamento. Um dos principais problemas na implantação de clusters desse porte é o gerenciamento de E/S, pois soluções centralizadas de armazenamento de arquivos, como o NFS, rapidamente se tornam o gargalo dessa parte do sistema. Ao longo dos últimos anos, diversas soluções para esse problema têm sido propostas, tanto pela utilização de tecnologias especializadas de armazenamento e comunicação, como RAID e fibra ótica, como pela distribuição das funcionalidades do servidor de arquivos entre várias máquinas, objetivando a paralelização de suas operações. Seguindo essa última linha, o projeto NFSP (NFS Parallèle) é uma proposta de sistema de arquivos distribuído que estende o NFS padrão de forma a aumentar o desempenho das operações de leitura de dados pela distribuição do serviço em vários nós do cluster. Com essa abordagem, o NFSP objetiva aliar desempenho e escalabilidade aos benefícios do NFS, como a estabilidade de sua implementação e familiaridade de usuários e administradores com sua semântica de uso e seus procedimentos de configuração e gerenciamento. A proposta aqui apresentada, chamada de dNFSP, é uma extensão ao NFSP com o objetivo principal de proporcionar melhor desempenho a aplicações que explorem tanto a leitura como a escrita de dados, uma vez que essa última característica não é contemplada pelo modelo original A base para o funcionamento do sistema é um modelo de gerenciamento distribuído de meta-dados, que permite melhor escalabilidade e reduz o custo computacional sobre o meta-servidor original do NFSP, e também um mecanismo relaxado de manutenção de coerência baseado em LRC (Lazy Release Consistency), o qual permite a distribuição do serviço sem acarretar em operações onerosas de sincronização de dados. Um protótipo do modelo dNFSP foi implementado e avaliado com uma série de testes, benchmarks e aplicações. Os resultados obtidos comprovam que o modelo pode ser aplicado como sistema de arquivos para um cluster, efetivamente proporcionando melhor desempenho às aplicações e ao mesmo tempo mantendo um elevado nível de compatibilidade com as ferramentas e procedimentos habituais de administração de um cluster, em especial o uso de clientes NFS padrões disponíveis em praticamente todos os sistemas operacionais da atualidade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Estatística é uma ferramenta indispensável em todos os campos científicos. A Estatística descritiva é usada para sintetizar dados. O principal problema desta área está relacionado aos valores de uma amostra, os quais geralmente possuem erros que ocorrem durante a obtenção dos dados. Um dos objetivos deste trabalho é apresentar uma forma de representação para os valores amostrais que considera os erros contidos nestes valores. Esta representação é realizada através de intervalos. A literatura mostra que foram realizadas pesquisas somente em problemas de calcular os valores intervalares das medidas de dispersão variância, covariância e coeficiente de correlação, que a utilização da computação intervalar na solução de problemas de medidas de dispersão intervalar sempre fornece solução com intervalos superestimados (intervalos com amplitude grande), e que ao procurar uma solução com intervalos de amplitude pequena (através da computação da imagem intervalar), o problema passa a pertencer a classe de problemas NP-Difícil. Com o objetivo principal de analisar a complexidade computacional dos problemas de computar os valores dos indicadores estatísticos descritivos com entradas intervalares, e realizar uma classificação quanto a classe de complexidade, a presente tese apresenta: i) definições intervalares de medidas de tendência central, medidas de dispersão e separatrizes; ii) investigação da complexidade de problemas das medidas de tendência central média, mediana e moda, das medidas de dispersão amplitude, variância, desvio padrão, coeficiente de variação, covariância, coeficiente de correlação e das separatrizes e iii) representação intervalar dos valores reais, de tal modo que garante a qualidade de aproximação nos intervalos solução calculado através da extensão intervalar Primeiramente, apresentamos uma abordagem intervalar para os indicadores estatísticos e propomos algoritmos para a solução dos problemas de computar os intervalos de medidas de tendência central intervalar, dispersão intervalar e separatrizes intervalares. Tais algoritmos utilizam a aritmética intervalar definida por Moore, a extensão intervalar e foram projetados para serem executados em ambientes intervalares como IntLab e Maple Intervalar. Por meio da análise da complexidade computacional verificamos que os problemas de medidas de tendência central, dispersão e separatrizes, com entradas intervalares, pertencem à classe de problemas P. Este trabalho apresenta, portanto, algoritmos de tempo polinomial que calculam os intervalos dos indicadores estatísticos com entradas intervalares, e que retornam como solução intervalos com qualidade de aproximação. Os resultados obtidos no desenvolvimento do trabalho tornaram viável a computação da Estatística Descritiva Intervalar.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Diante dos problemas vivenciados no ensino da Física cabe ao professor a tarefa de tentar combater as dificuldades de seus alunos, proporcionando-lhes experiências de aprendizagem eficazes, procurando atualizar, tanto quanto possível, os instrumentos pedagógicos que utiliza. Considerando a especificidade experimental da Física, a realização de atividades de laboratório faz-se de grande importância. Porém, uma reflexão a respeito de como utilizar tais atividades é necessária para que possam realmente contribuir para uma aprendizagem significativa. Nesta busca, a utilização da aquisição automática de dados através de dispositivos do tipo CBL (do inglês Calculator Based Laboratory) pode, sem dúvida, trazer grande contribuição. Aliando-se à grande potencialidade do uso destes dispositivos, à inexistência de trabalhos divulgados envolvendo seu uso no ensino de Física no Brasil e, finalmente, ao fato deste ser um equipamento adquirido recentemente pelo Centro Federal de Educação Tecnológica de Pelotas, instituição na qual este trabalho foi desenvolvido, optou-se por propor nesta dissertação a utilização de tais equipamentos em laboratório didático de Física Térmica no ensino médio. Dentre os assuntos abordados cita-se: calor, temperatura e energia interna; resfriamento de um corpo; mudança de estado físico e pressão de vapor; transmissão do calor. Alguns destes assuntos não são normalmente abordados no ensino médio, como a lei de resfriamento e análise da curva de pressão de vapor. Outros tópicos levam a uma maior contextualização da Física, como umidade relativa do ar e formação de geada. Esta proposta é fundamentada pela teoria da aprendizagem significativa de David Ausubel e pela teoria da interação social de Lev Vigotski Através desta experiência de implementação em aulas regulares de ensino médio, espera-se verificar a possibilidade de sua utilização neste nível de ensino. Como produto deste trabalho de dissertação, foi produzido material instrucional que compreende guias experimentais e textos envolvendo os conteúdos abordados, assim como material hipermídia sobre transmissão do calor contendo algumas animações e teste interativo desenvolvidos em Flash MX. Todo este material foi concebido e implementado buscando levar o aluno a uma aprendizagem significativa dos conceitos físicos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Um Sistema gerenciador de Bancos de Dados (SGBD) possui como principal característica a capacidade de gerenciar bases de dados que representam parte do mundo real. Para que essa representação seja fiel, os dados presentes em uma base de dados devem obedecer a diversas regras conhecidas como restrições de integridade. Estas podem ser provenientes da realidade modelada, da implementação ou do modelo de dados utilizado. O suporte oferecido por sistemas gerenciadores de bancos de dados tradicionais não é suficientemente adequado a certas aplicações com necessidades que vão além das convencionais. Diversas aplicações necessitam armazenar dados históricos em conjunto com seus períodos de validade. Outras precisam armazenar versões de conjuntos de dados, gerenciando suas agregações e formas de representação. Através do suporte aos conceitos de tempo e de versão, provido por um SGBD, grande parte dessas necessidades é suprida. Este tipo de banco de dados usa o conceito de tempo para armazenar e controlar dados históricos enquanto o conceito de versão permite a gerência de alternativas de projeto. Existem atualmente diversos trabalhos e implementações relacionados à manutenção de restrições de integridade sobre bancos de dados tradicionais. Entretanto, restrições que consideram a gerência de tempo e de versões sobre dados ainda representam uma área de pesquisa praticamente inexplorada. De acordo com essa realidade, o primeiro objetivo do presente trabalho consiste em definir uma classificação de restrições de integridade para bases de dados com suporte a tempo e versões, a fim de prover uma base para o desenvolvimento de pesquisas relacionadas à sua especificação e manutenção. O segundo objetivo consiste em agregar ao Modelo Temporal de Versões (TVM), que suporta os conceitos de tempo e de versão, uma linguagem que permita a especificação de restrições de integridade. Esta linguagem considera características relacionadas à temporalidade e ao versionamento dos dados e das próprias restrições.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apesar das vantagens das funcionalidades de banco de dados temporais, já amplamente demonstradas na literatura, ainda não existe, comercialmente, um SGBD totalmente temporal. Algumas propostas já foram feitas, embora um pouco discretas, dando ênfase em apenas parte das funcionalidades temporais, já sinalizando que em breve será possível existir um SGBD puramente temporal. Uma dessas propostas se constitui na implementação de uma camada de software que simula um banco de dados temporal, chamada Pacote de Tempo de Validade – PTV. Ela foi desenvolvida para demonstrar algumas funções temporais de banco de dados de tempo de validade. Embora o PTV tenha funções para garantir a integridade de dados temporais na inserção de tuplas, além de outros controles, não apresenta funções de consultas temporais. Essas funções foram desenvolvidas neste trabalho com base no TSQL2, aumentando, portanto, as funcionalidades temporais do PTV. Elas foram desenvolvidas para o SGBD Oracle 9i e consistem da principal proposta desse trabalho, permitindo inclusive validar as funções de consultas temporais de outras propostas da literatura. A segunda proposta desse trabalho é prover aos desenvolvedores e pesquisadores dessa área, uma interface visual apropriada para o uso do PTV, permitindo, assim, a exploração máxima dos recursos temporais desse pacote.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A mineração de carvão em lavra a céu aberto provoca a mistura dos materiais sobrejacentes ao carvão e que são, posteriormente, utilizados no preenchimento das cavas mineradas. O processo de construção dos solos e a mistura podem ocasionar problemas ambientais pelas alterações quimicas e fisicas provocadas nos solos construidos. A fimde comparar solos construidos de diferentes idades, caracterizou-se a coluna geológica. o ~Io natural originale solos construidos de 2 anos e de 24 anos da mina de carvão Boa Vista, no Municípiode Minas do Leão, RS. A descrição morfológicado perfil do solo e as análises quimicas e fisicas demonstram que os solos construidos apresentam sérias limitações físicas, impedindo o desenvolvimento normal da vegetação. Ademais. diferenças quimicas entre os perfis de diferentes idades originam-se principalmente da utilização de materiais geológicos e processos de construção distintos, do que pelos processos pedogenéticos. Quanto à evolução temporal dos solos construidos, observou-se que está fortemente caracterizada pela intemperização acido-sulfatada, intensificando-se na sub-área mais antiga. O potencial de acidificação e o potencial de neutralização determínados na coluna geológica indicam a existência de camadas com alto potencial gerador de Drenagem Ácida de Minas, recomendando-se o cuidado na deposição final destas camadas. Os resultados deste estudo indicam que as propriedades químicas e fisicas determinadas nos solos construidos servem como indicadores para o monitoramentode áreas construídas,visando a prevenção de danos ambientais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esse trabalho de dissertação está incluído no contexto das pesquisas realizadas no Grupo de Processamento Paralelo e Distribuído da UFRGS. Ele aborda as áreas da computação de alto desempenho, interfaces simples de programação e de sistemas de interconexão de redes velozes. A máquina paralela formada por agregados (clusters) tem se destacado por apresentar os recursos computacionais necessários às aplicações intensivas que necessitam de alto desempenho. Referente a interfaces de programação, Java tem se mostrado uma boa opção para a escrita de aplicações paralelas por oferecer os sistemas de RMI e de soquetes que realizam comunicação entre dois computadores, além de todas as facilidades da orientação a objetos. Na área a respeito de interconexão de rede velozes está emergindo como uma tentativa de padronização a nova tecnologia Infiniband. Ela proporciona uma baixa latência de comunicação e uma alta vazão de dados, além de uma série de vantagens implementadas diretamente no hardware. É neste contexto que se desenvolve o presente trabalho de dissertação de mestrado. O seu tema principal é o sistema Aldeia que reimplementa a interface bastante conhecida de soquetes Java para realizar comunicação assíncrona em agregados formados por redes de sistema. Em especial, o seu foco é redes configuradas com equipamentos Infiniband. O Aldeia objetiva assim preencher a lacuna de desempenho do sistema padrão de soquetes Java, que além de usar TCP/IP possui um caráter síncrono. Além de Infiniband, o Aldeia também procura usufruir dos avanços já realizados na biblioteca DECK, desenvolvida no GPPD da UFRGS. Com a sua adoção, é possível realizar comunicação com uma interface Java sobre redes Myrinet, SCI, além de TCP/IP. Somada a essa vantagem, a utilização do DECK também proporciona a propriedade de geração de rastros para a depuração de programas paralelos escritos com o Aldeia. Uma das grandes vantagens do Aldeia está na sua capacidade de transmitir dados assincronamente. Usando essa técnica, cálculos da aplicação podem ser realizados concorrentemente com as operações pela rede. Por fim, os canais de dados do Aldeia substituem perfeitamente aqueles utilizados para a serialização de objetos. Nesse mesmo caminho, o Aldeia pode ser integrado à sistemas que utilizem a implementação de soquetes Java, agora para operar sobre redes de alta velocidade. Palavras-chave: Arquitetura Infiniband, agregado de computadores, linguagem de programação Java, alto desempenho, interface de programação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A seqüência evaporítica Aptiana da Bacia de Santos constitui-se num dos maiores depósitos salíferos antigos conhecidos no mundo, tanto em área como em espessura. Esta última chega a atingir 2.500 m em alguns locais com baixa deformação. Devido à intensa halocinese ocorrida a partir do Albiano, sua estratificação deposicional ficou preservada em poucos locais. O Platô de São Paulo, feição fisiográfica que se estende até as águas profundas da Bacia de Santos, teve papel importante na preservação do acamadamento original. Dois poços e traços de uma seção sísmica, localizados nesta área, foram utilizados para o estudo cicloestratigráfico do pacote evaporítico. A correlação dos dois poços, a partir de seus perfis geofísicos, permitiu a identificação de um ciclo evaporítico principal com grande continuidade lateral e de espessura variável. Este ciclo deposicional foi classificado como do tipo brining upward/downward, e caracteriza-se pela precipitação rítmica de anidrita, halita, sais complexos, halita e, novamente, anidrita, no final de um ciclo e início do seguinte. Esta ordem de deposição foi interpretada como função da variação da espessura da lâmina de água e da concentração da salmoura. A análise cicloestratigráfica dos perfis geofísicos dos dois poços (raios gama, velocidade e densidade) e dos dois traços sísmicos resultou na correlação do principal ciclo identificado com o ciclo orbital de Milankovich de precessão longa, com 22 ka. Um outro ciclo secundário, com maior espessura, foi interpretado como resultado de variações climáticas em função do ciclo de obliqüidade, com um período de 39 ka. As taxas de deposição de cada ciclo são bastante variáveis em função da quantidade de cada tipo de evaporito. Através das análises cicloestratigráficas e do estudo das proporções em que cada sal ocorre, chegou-se a uma taxa de deposição da halita entre 10 e 11,5 m/ka, e de 0,61 a 0,64 m/ka para a anidrita. Esta diferença entre as taxas de deposição da halita e da anidrita explica a grande variação de espessura do ciclo principal, especialmente entre o depocentro e a borda da bacia. A menor concentração da salmoura nas proximidades da borda justifica uma menor espessura do ciclo e uma proporção bem maior de anidrita, quando se compara com uma deposição próxima ao depocentro. A cicloestratigrafia aplicada aos traços sísmicos apresentou resultados similares aos encontrados nos dois poços. A grande variação das propriedades físicas entre os diferentes tipos de evaporitos, especialmente entre a anidrita e os sais complexos, permite a intercalação de refletores com grande amplitude e continuidade. Foram contabilizados 22 ciclos nos dois traços analisados, os quais somados com o nível superior não analisado, mais rico em anidrita, totalizam 573 ka para a idade da seqüência evaporítica. Este resultado, mais os encontrados nos dois poços, permite uma previsão de tempo para a deposição de toda a seqüência entre 400 e 600 ka. Como um modelo mais provável para a deposição de toda a seqüência evaporítica, defende-se, neste trabalho, a hipótese de uma bacia profunda com lâmina de água também profunda. Os ciclos teriam se depositados a partir de mudanças de concentração da salmoura originadas pela variação de uma lâmina de água de cerca de 1000 m, na deposição da anidrita, para menos de 200 na deposição dos sais complexos, na parte mais profunda da bacia. Corroboram para este modelo, a grande continuidade, do depocentro até as bordas, das camadas de cada ciclo, a declividade, mesmo que bastante baixa, da bacia e a impossibilidade de valores de taxas de subsidência similares aos de deposição do ciclo evaporítico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Uma das questões mais debatidas na atualidade diz respeito à problemática ambiental. A impossibilidade da verificação de muitos dos possíveis efeitos da atividade agrícola no ambiente rural tem levado pesquisadores das mais diversas áreas a buscar alternativas viáveis para uma utilização sustentável do ambiente. O presente trabalho apresenta o desenvolvimento de uma metodologia diferenciada para lidar com a questão. Utilizou-se, para isto, um estudo de caso em uma unidade de planejamento, a saber, uma bacia hidrográfica, ou microbacia hidrográfica (MBH) como será explanado no decorrer do texto, localizada no município de Maximiliano de Almeida, no Estado do Rio Grande do Sul, com uma área de cerca de 11,96 km2. Para esta bacia foram aplicadas as técnicas vinculadas às Metodologias Multicritério em Apoio à Decisão (MCDA – Multicriteria Decision Aided) visando à formulação de critérios quando do uso do geoprocessamento. Assim, a partir de uma revisão bibliográfica geral sobre os aspectos relacionados ao assunto em pauta, foram realizados os procedimentos metodológicos pertinentes, vinculados ao uso de MCDA e geoprocessamento, os quais resultaram em mapas específicos. A análise dos mapas resultantes corroborou as hipóteses apresentadas. Os resultados obtidos servem, portanto, como indicativos para a utilização desta metodologia nas demais bacias hidrográficas trabalhadas pela Associação Riograndense de Empreendimentos de Assistência Técnica e Extensão Rural – EMATER/RS – tida como parceira neste trabalho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No início dos anos 90, o Brasil e a Grã-Bretanha, juntos, deram um passo, no sentido de produzir estudos microclimáticos dentro da área que compreende a floresta Amazônica, visando quantificar e verificar o impacto do desmatamento dessa floresta sobre o clima. Para isso escolheu-se três regiões para a instalação de estações meteorológicas automáticas de superfície (Estados do Amazonas, Pará e Rondônia). Cada região recebeu uma estação em uma área florestada e outra em área desmatada. Esse projeto binacional foi chamado de "ESTUDO ANGLO-BRASILEIRO DE OBSERVAÇÃO DO CLIMA DA AMAZONIA, (ABRACOS - Anglo-Braz11ian Amazonian Climate Observation Study)". Esse trabalho apresenta a aplicação de dois métodos de controle de qualidade para os dados coletados pelas estações meteorológicas automáticas de superfície. Um desses métodos leva em consideração o comportamento estatístico das variáveis coletadas, e o outro método o comportamento físico e climatológico das mesmas. Por último se faz o uso desses dados com e sem erros no cálculo da evapotranspiração, no sentido de se ver o impacto de uma informação errônea no cálculo de um parametro. O método estatístico demonstrou ter um bom potencial na detecção de erros pequenos (com tamanhos variando de 5 a 20%).(Continua). Esse método apresentou rendimentos na obtenção de erros que oscilam entre 43% e 80% para a radiação solar global. Quando se testou os valores da temperatura do ar e temperatura do bulbo úmido, obteve-se um dos melhores rendimentos do método estatístico, que chegou a 91%. Os piores desempenhos foram quando se testou a radiação refletida, alcançando-se apenas 11,1%. O método físico mostrou-se eficiente na detecção de erros maiores (30 a 90%). Os melhores desempenhos aconteceram quando se testaram as temperaturas. Em um caso o rendimento chegou a 100%. Em seu pior desempenho o método detectou apenas 20% (Teste" A" ). O método físico somente detectou informações suspeitas, dentro dos erros inseridos nas séries de dados.