13 resultados para nodo trave colonna, Midas FEA
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
o Pó de Aciaria Elétrica (PAE) é um resíduo gerado em indústrias siderúrgicas que utilizam o Forno Elétrico a Arco (FEA) e a sucata como principal matéria-prima para a produção do aço. O PAE é composto por diferentes óxidos metálicos, entre eles o Zn, Cr, Pb e Cd. Devido às concentrações de Pb e Cdultrapassarem as pennitidas pela NBR 10004(1987), no ensaio de lixiviação, o PAE é classificado como resíduo perigoso Classe I. Este trabalho tem como objetivo o estudo da influência do PAEno desempenhomecânico e durabilidade de blocos de concreto para pavimentação. O programa experimental foi desenvolvido em duas etapas: a primeira. na qual foi fixada a relação água/cimento e a segunda, na qual foi fixado o índice de umidade, fator este relacionado com a capacidade de moldar os corpos-de-prova. Em ambas as etapas, o teor de adição do PAE empregado foi de 5%, 15% e 25% em relação à massa de cimento. Também foram moldados corpos-de-prova sem adição do resíduo (0%), utilizados como referência. Como ensaios complementares, foram detenninados o calor de hidratação, assim como a caracterização mineralógica e microestrutural de pastas de cimento com teores do PAE. Verificou-se que, nas duas etapas, os blocos contendo 15% de adição do PAE obtiveram melhor desempenho quanto à resistência à compressão axial. Para os ensaios de durabilidade, os blocos com o PAE mostraram-se com desempenho igual ou superior aos blocos que não o possuíam O PAE utilizado nos blocos de concreto, bem como em pastas de cimento, retardou os tempos de início e fim de pega. O cimento também pode agir como formador de uma matriz para encapsular os metais pesados contidos no pó de aciaria. Nos ensaios de caracterização ambiental, obselVou-seeste encapsulamento através da análise dos extratos lixiviados e solubilizados, onde as concentrações dos metais pesados, ao longo do tempo, diminuíram. Isto fez com que os blocos, contendo o resíduo em sua composição, fossem classificados neste trabalho como Classe II - não-inerte. Desta forma, a partir de um resíduo perigoso Classe L foi possível desenvolver, através do encapsulamento na matriz cimentante, um produto Classe 11.
Resumo:
A classificação é uma das tarefas da Mineração de Dados. Esta consiste na aplicação de algoritmos específicos para produzir uma enumeração particular de padrões. Já a classificação é o processo de gerar uma descrição, ou um modelo, para cada classe a partir de um conjunto de exemplos dados. Os métodos adequados e mais utilizados para induzir estes modelos, ou classificadores, são as árvores de decisão e as regras de classificação. As regras e árvores de decisão são populares, principalmente, por sua simplicidade, flexibilidade e interpretabilidade. Entretanto, como a maioria dos algoritmos de indução particionam recursivamente os dados, o processamento pode tornar-se demorado, e a árvore construída pode ser muito grande e complexa, propensa ao overfitting dos dados, que ocorre quando o modelo aprende detalhadamente ao invés de generalizar. Os conjuntos de dados reais para aplicação em Mineração de Dados são, atualmente, muito grandes, e envolvem vários milhares de registros, sendo necessária, também, uma forma de generalizar estes dados. Este trabalho apresenta um novo modelo de indução de classificadores, em que o principal diferencial do algoritmo proposto é a única passada pelo conjunto de treinamento durante o processo de indução, bem como a sua inspiração proveniente de um Sistema Multiagente. Foi desenvolvido um protótipo, o Midas, que foi validado e avaliado com dados de repositórios. O protótipo também foi aplicado em bases de dados reais, com o objetivo de generalizar as mesmas. Inicialmente, foi estudado e revisado o tema de Descoberta de Conhecimento em Bases de Dados, com ênfase nas técnicas e métodos de Mineração de Dados. Neste trabalho, também são apresentadas, com detalhes, as árvores e regras de decisão, com suas técnicas e algoritmos mais conhecidos. Finalizando, o algoritmo proposto e o protótipo desenvolvido são apresentados, bem como os resultados provenientes da validação e aplicação do mesmo.
Resumo:
Estruturas de informações organizadas hierarquicamente estão presentes em muitas áreas. Pode-se citar como exemplos diagramas organizacionais, árvores genealógicas, manuais, estruturas de diretórios, catálogos de bibliotecas, etc. Na última década, várias técnicas têm sido desenvolvidas a fim de permitir a navegação em espaços de informações organizados dessa forma. Essas técnicas buscam proporcionar uma melhor percepção de alguns atributos ou fornecer mecanismos de interação adicionais que vão além da tradicional navegação com barras de rolagem ou câmeras 3D em visualização bi e tridimensional, respectivamente. Dentre as várias alternativas de representação utilizadas nas diversas técnicas para dados hierárquicos destacam-se dois grandes grupos: as que utilizam a abordagem de preenchimento do espaço e as baseadas em diagramas de nodos e arestas. Na primeira o espaço disponível para a representação da estrutura é subdividido recursivamente, de forma que cada subárea representa um nodo da hierarquia. Na segunda, os nodos são representados por figuras geométricas e os relacionamentos, por linhas. Outro critério utilizado para classificá-las é a estratégia que cada uma aplica para exibir os detalhes presentes na estrutura. Algumas técnicas utilizam o método Foco+Contexto de modo a fornecer uma representação visual inteira do espaço de informações, bem como uma visão detalhada de itens selecionados na mesma área de exibição. Outras utilizam a abordagem Visão Geral+Detalhe que possui a característica de exibir essas duas partes (conjunto total e subconjunto de interesse) em áreas separadas. O objetivo do presente trabalho é investigar a integração dessas duas abordagens a partir da proposta da técnica Bifocal Tree. Esta estrutura utiliza um diagrama de nodos e arestas e incorpora os conceitos existentes na abordagem Foco+Contexto guardando, porém uma divisão mais perceptível da visão de contexto e de detalhe. Ela introduz o uso de um segundo foco proporcionando duas áreas de visualização onde são exibidos dois sub-diagramas conectados entre si. Um corresponde à subárvore que contém o trecho da estrutura de interesse do usuário, enquanto o outro representa o contexto da hierarquia visualizada. Possui ainda alguns mecanismos de interação a fim de facilitar a navegação e a obtenção das informações exibidas na estrutura. Experimentos baseados em tarefas realizadas por usuários com a Bifocal Tree, o Microsoft Windows Explorer e o browser MagniFind foram utilizados para a avaliação da técnica demonstrando suas vantagens em algumas situações.
Resumo:
O desenvolvimento de protocolos distribuídos é uma tarefa complexa. Em sistemas tolerantes a falhas, a elaboração de mecanismos para detectar e mascarar defeitos representam grande parte do esforço de desenvolvimento. A técnica de simulação pode auxiliar significativamente nessa tarefa. Entretanto, existe uma carência de ferramentas de simulação para investigação de protocolos distribuídos em cenários com defeitos, particularmente com suporte a experimentos em configurações “típicas” da Internet. O objetivo deste trabalho é investigar o uso do simulador de redes NS (Network Simulator) como ambiente para simulação de sistemas distribuídos, particularmente em cenários sujeitos à ocorrência de defeitos. O NS é um simulador de redes multi-protocolos, que tem código aberto e pode ser estendido. Embora seja uma ferramenta destinada ao estudo de redes de computadores, o ajuste adequado de parâmetros e exploração de características permitiu utilizá-lo para simular defeitos em um sistema distribuído. Para isso, desenvolveu-se dois modelos de sistemas distribuídos que podem ser implementados no NS, dependendo do protocolo de transporte utilizado: um baseado em TCP e o outro baseado em UDP. Também, foram estudadas formas de modelar defeitos através do simulador. Para a simulação de defeito de colapso em um nodo, foi proposta a implementação de um método na classe de cada aplicação na qual se deseja simular defeitos. Para ilustrar como os modelos de sistemas distribuídos e de defeitos propostos podem ser utilizados, foram implementados diversos algoritmos distribuídos em sistemas síncronos e assíncronos. Algoritmos de eleição e o protocolo Primário-Backup são exemplos dessas implementações. A partir desses algoritmos, principalmente do Primário-Backup, no qual a simulação de defeitos foi realizada, foi possível constatar que o NS pode ser uma ferramenta de grande auxílio no desenvolvimento de novas técnicas de Tolerância a Falhas. Portanto, o NS pode ser estendido possibilitando que, com a utilização dos modelos apresentados nesse trabalho, simule-se defeitos em um sistema distribuído.
Resumo:
Mosaicos de áreas úmidas fornecem hábitats para uma ampla gama de espécies de aves, que raramente se distribuem uniformemente dentro das mesmas. O cenário mundial atual do estudo de aves em áreas úmidas deixa bem claro que as metodologias para estudos quantitativos de aves em áreas úmidas ainda estão sendo criadas ou aperfeiçoadas. O mosaico formado pelas áreas úmidas do Banhado dos Pachecos é de reconhecida importância para a conservação de aves aquáticas, constituindo-se numa área ideal para estudos da avifauna. A presente dissertação tem como objetivo avaliar a estrutura espacial e sazonal da avifauna do Banhado dos Pachecos, tecer considerações sobre a conservação das aves aquáticas sob uma perspectiva de paisagem e testar a viabilidade de se utilizar amostragens matinais e vespertinas para análises de distribuição e abundância da avifauna. O Banhado dos Pachecos, juntamente com o Banhado Grande, formam o Sistema Banhado Grande. A amostragem da avifauna foi conduzida através de levantamentos qualitativos e quantitativos de modo a cobrir quatro estações climáticas: verão, outono, inverno e primavera. As amostragens qualitativas foram realizadas através de deslocamentos ad libitum entre e durante as amostragens quantitativas em todas as fisionomias. As amostragens quantitativas foram realizadas através de pontos de contagem, transecções e contagens totais. Riqueza, grupos funcionais de forrageio, grupos funcionais de nidificação, aves aquáticas, situação de ocorrência no Rio Grande do Sul, espécies ameaçadas de extinção e abundância foram os descritores utilizados para a caracterização da avifauna. A estatística empregada na análise dos dados multivariados baseou-se em métodos não-paramétricos de reamostragem através de aleatorização e “bootstrap”. Análises de agrupamentos foram realizadas para determinar a formação de grupos de fisionomias e análises de coordenadas principais foram realizadas para determinar se existia algum padrão de associação entre as diferentes fisionomias. Registraram-se 209 espécies de aves, vinte e e três grupos funcionais de forrageio, sete grupos funcionais de nidificação e 60 espécies de aves aquáticas e 11 espécies ameaçadas de extinção. Trinta e duas espécies apresentaram evidências discordantes da situação de ocorrência conhecida para o estado. Alguns fatores que poderiam ser fontes de viés para a interpretação das análises na presente dissertação foram abordados. A constância encontrada no conjunto de espécies da área de estudo pode refletir uma maior estabilidade ambiental. O alto número de grupos funcionais de forrageio e de nidificação registrados para a área de estudo sugere uma grande diversidade de recursos, reflexo da heterogeneidade entre as diferentes fisionomias. A origem de algumas espécies que se mostraram efetivamente migratórias, pois usaram a área de estudo em um período estacional bem definido, se mostra uma incógnita. Somente estudos extensivos e abrangentes poderão responder essas perguntas e propor medidas eficientes para a conservação tanto das áreas úmidas como das espécies que delas dependem. A restauração de um corredor de áreas úmidas entre o banhado dos Pachecos e o banhado Grande, juntamente com um manejo rotativo de cultivos de arroz parece ser a alternativa mais viável e conciliatória entre pontos de vista econômico e conservacionista para possibilitar o aumento da conectividade no Sistema Banhado Grande.
Resumo:
O objetivo desta dissertação é a elaboração de uma técnica da aplicação do formalismo de Autômatos Finitos com Saída (Máquina de Mealy e Máquina de Moore) como um modelo estrutural para a organização de hiperdocumentos instrucionais, em destacar especial, Avaliação e Exercício. Esse objetivo é motivado pela organização e agilização do processo de avaliação proporcionado ao professor e ao aluno. Existem diferentes técnicas de ensino utilizadas na Internet, algumas dessas continuam sendo projetadas com o uso de metodologias tradicionais de desenvolvimento, outras têm a capacidade de modelar de forma integrada e consistente alguns aspectos necessários para uma aplicação WEB. Para alcançar o objetivo proposto, foram realizadas pesquisas nas várias áreas abrangidas pelo tema em evidência, tanto relativo ao processo tradicional (aplicação de prova utilizando metodologia tradicional), como o desenvolvimento de software mediado por computador e uso da Internet em si. A modelagem de desenvolvimento para Internet deve integrar características de técnicas de projeto de sistemas de hipermídia devido à natureza hipertextual da Internet. O uso de hiperdocumento como autômatos com saída está na forma básica de representação de hipertexto, em que cada fragmento de informação é associado a um nodo ou a um link (estado/transições) do grafo. Sendo assim, os arcos direcionados representam relacionamentos entre os nodos ou links, ou seja, uma passagem do nodo origem para o nodo destino. As n-uplas dos autômatos apresentam uma correspondência as estruturas de hiperdocumentos na WEB, seu estado/transição inicial corresponde a sua primeira página e suas transições definidas na função programa, funcionam como ligações lógicas, quando selecionadas durante a navegação do hipertexto. Entretanto, faz-se necessário um levantamento dos modelos de hipertextos e das ferramentas de implementação disponíveis para a Internet, a fim de que seja capaz de suportar as peculiaridades do ambiente. Tudo isso deve ser integrado preferencialmente em um paradigma de desenvolvimento amplamente aceito, para que os projetistas não tenham muitas dificuldades em assimilar os conceitos propostos. A proposta apresentada nesta dissertação, batizada de Hyper-Automaton (hipertexto e autômato), consiste na integração de um Curso na WEB, utilizando formalismo de Autômatos Finitos com Saída para a modelagem dos conceitos necessários e definição das fases adequadas para completar a especificação de Sistema Exercício e Avaliação, bem como a especificação da Geração Automática dos Exercícios e Avaliações baseadas em autômatos para a WEB. Os modelos criados abrangem conceitos de Máquina de Mealy, Máquina de Moore e Aplicações de Hiperdocumentos e Ferramentas de Programação para Internet, os mesmos já testados em caso real. Os parâmetros apurados, nos testes, serviram a uma seqüência de etapas importantes para modelar e complementar a especificação do sistema projetado. Com os parâmetros e etapas de modelagem, a metodologia Hyper-Automaton consegue integrar, de forma consistente, as vantagens de várias técnicas específicas de modelagem de documentos e sistemas de hipermídia. Essas vantagens, aliadas ao suporte às ferramentas de desenvolvimento para Internet, garantem que a metodologia fique adequada para a modelagem de Sistemas com aplicação de métodos de autômatos para exercícios e avaliação na WEB.
Resumo:
Esta tese propõe o desenvolvimento de um método de estimativa de capacitâncias e de potência consumida nos circuitos combinacionais CMOS, no nível de portas lógicas. O objetivo do método é fazer uma previsão do consumo de potência do circuito na fase de projeto lógico, o que permitirá a aplicação de técnicas de redução de potência ou até alteração do projeto antes da geração do seu leiaute. A potência dinâmica consumida por circuitos CMOS depende dos seguintes parâmetros: tensão de alimentação, freqüência de operação, capacitâncias parasitas e atividades de comutação em cada nodo do circuito. A análise desenvolvida na Tese, propõe que a potência seja dividida em duas componentes. A primeira componente está relacionada ao consumo de potência devido às capacitâncias intrínsecas dos transistores, que por sua vez estão relacionadas às dimensões dos transistores. Estas capacitâncias intrínsecas são concentradas nos nodos externos das portas e manifestam-se em função das combinações dos vetores de entrada. A segunda componente está relacionada às interconexões entre as células do circuito. Para esta etapa utiliza-se a estimativa do comprimento médio das interconexões e as dimensões tecnológicas para estimar o consumo de potência. Este comprimento médio é estimado em função do número de transistores e fanout das várias redes do circuito. Na análise que trata das capacitâncias intrínsecas dos transistores os erros encontrados na estimativa da potência dissipada estão no máximo em torno de 11% quando comparados ao SPICE. Já na estimativa das interconexões a comparação feita entre capacitâncias de interconexões estimadas no nível lógico e capacitâncias de interconexões extraídas do leiaute apresentou erros menores que 10%.
Resumo:
Atualmente, a World Wide Web (WWW) já se estabeleceu como um dos meios de divulgação mais difundidos. Sendo um meio de publicação de custo relativamente baixo, muitas iniciativas foram desenvolvidas no sentido de estendê-la e transformá-la também numa ferramenta de apoio. Assim, uma série de pesquisas foi realizada no sentido de promover e facilitar o gerenciamento das informações da WWW, que são estruturadas, em sua maioria, como conjuntos de documentos inter-relacionados. Grafos são estruturas utilizadas para a representação de objetos e seus múltiplos relacionamentos. Nesse sentido, pode-se afirmar que hiperdocumentos podem ser modelados através de grafos, onde uma página representa um nodo e um link para outra página é representado por uma aresta. Considerando estas características, e dada a crescente complexidade dos materiais publicados na WWW, desenvolveu-se, ao longo da última década, o uso de técnicas e recursos de Visualização de Grafos com larga aplicação na visualização da estrutura e da navegação na WWW. Técnicas de visualização de grafos são aplicáveis especificamente para representar visualmente estruturas que possam ser modeladas por meio de objetos relacionados, sendo investigadas técnicas para a abstração de modo a facilitar tanto o processo de compreensão do contexto da informação, quanto a apreensão dos dados relacionados. Este trabalho tem como objetivo a investigação de técnicas de Visualização de Grafos aplicadas a autômatos finitos com saída. Este direcionamento se deve ao fato de alguns autores utilizar a abordagem de autômatos finitos com saída para as estruturas de hiperdocumentos. Se for considerado que um documento da WWW (ou o estado de um autômato) é composto por fragmentos de informação (ou saídas) tais como trechos de texto, imagens, animações, etc e que este documento é relacionado a outros por meio de links (ou transições), tem-se a verificação de sua representatividade por meio destas estruturas. Em trabalho anterior, no âmbito do PPGC da UFRGS, a ferramenta Hyper-Automaton foi desenvolvida com o objetivo de estender o uso da Internet no sentido de prover uma ferramenta de apoio à publicação de materiais instrucionais. Por adotar a notação de autômatos finitos com saída, possibilita, além da criação e gerenciamento de hiperdocumentos, a reutilização de fragmentos de informação sem que haja qualquer interferência de um autômato que utilize este fragmento sobre outro. O Hyper-Automaton foi selecionado como caso de estudo motivador deste trabalho. As técnicas aqui desenvolvidas têm como intuito diminuir a complexidade visual da informação, assim como permitir a navegação através dos autômatos finitos com saída de forma que seja possível visualizar detalhes como as saídas e informações relacionadas a cada uma delas, mantendo a visualização do contexto da informação. Foram analisadas técnicas de agrupamento como forma de redução da complexidade visual, e técnicas do tipo foco+contexto, como alternativa para prover a visualização simultânea do contexto e dos detalhes da informação.
Resumo:
Este estudo teve como objetivos descrever e comparar a estrutura da comunidade fitoplanctônica, determinada pelos atributos densidade, composição, riqueza, diversidade específica e uniformidade, na foz dos rios Gravataí, Sinos, Caí e Jacuí e verificar sua relação com variáveis físicas, químicas, bacteriológicas e hidrológicas, em um ciclo anual. A investigação baseou-se em seis amostragens sazonais, na subsuperfície da água, no período de dezembro de 2000 a dezembro de 2001. A comunidade fitoplanctônica, na foz dos quatro rios, esteve composta por 471 táxons, 135 gêneros e nove classes taxonômicas. A classe Chlorophyceae foi a mais representativa em todos os rios, sendo substituída pela Bacillariophyceae no inverno, nos rios Gravataí e Jacuí e, no outono, no rio dos Sinos. As Bacillariophyceae cederam lugar para as Euglenophyceae, no rio dos Sinos, na primavera e, juntamen te com as Cryptophyceae, no rio Caí, no verão. A alta riqueza e alta diversidade estão, provavelmente, associadas à ocorrência de reservatórios e banhados no curso superior destes rios, bem como da presença de áreas úmidas na planície de inundação, no curso inferior. Estes ambientes férteis são importantes fontes de organismos para a comunidade fitoplanctônica na foz dos rios do delta do Jacuí. A temperatura da água e o nível fluviométrico foram os principais fatores determinantes da variação da densidade e riqueza do fitoplâncton e, demonstraram um comportamento sazonal semelhante nos rios. Em geral, o incremento da densidade fitoplanctônica esteve relacionado ao período de águas baixas, com temperaturas mais elevadas da água A riqueza específica apresentou algumas variações significativas entre os rios, estando provavelmente, associada às diferenças químicas entre eles. Os resultados demonstraram a ocorrência de um gradiente decrescente de eutrofização dos rios, na seguinte seqüência: rio Gravataí, rio dos Sinos, rio Caí e rio Jacuí. Apesar das diferentes condições de trofia entre a foz dos rios do delta do Jacuí, a comunidade fitoplanctônica apresentou alta riqueza e diversidade específica e esteve composta em grande parte por organismos resistentes e/ou adaptados às condições ambientais destes rios.
Resumo:
Uma etapa fundamental no desenvolvimento de sistemas tolerantes a falhas é a fase de validação, onde é verificado se o sistema está reagindo de maneira correta à ocorrência de falhas. Uma das técnicas usadas para validar experimentalmente um sistema é injeção de falhas. O recente uso de sistemas largamente distribuídos para execução dos mais diversos tipos de aplicações, faz com que novas técnicas para validação de mecanismos de tolerância a falhas sejam desenvolvidas considerando este novo cenário. Injeção de falhas no sistema de comunicação do nodo é uma técnica tradicional para a validação de aplicações distribuídas, para forçar a ativação dos mecanismos de detecção e recuperação de erros relacionados à troca de mensagens. A condução de experimentos com injetores de comunicação tradicionais é feita pelo uso do injetor em uma máquina do sistema distribuído. Se o cenário desejado é de múltiplas falhas, o injetor deve ser instanciado independentemente nas n máquinas que as falhas serão injetadas. O controle de cada injetor é individual, o que dificulta a realização do experimento. Esta dificuldade aumenta significativamente se o cenário for um sistema distribuído de larga escala. Outro problema a considerar é a ausência de ferramentas apropriadas para a emulação de determinados cenários de falhas. Em aplicações distribuídas de larga escala, um tipo comum de falha é o particionamento de rede. Não há ferramentas que permitam diretamente a validação ou a verificação do processo de defeito de aplicações distribuídas quando ocorre um particionamento de rede Este trabalho apresenta o estudo de uma abordagem para injeção de falhas que permita o teste de atributos de dependabilidade de aplicações distribuídas de pequena e larga escala implementadas em Java. A abordagem considera a não obrigatoriedade da alteração do código da aplicação sob teste; a emulação de um cenário de falhas múltiplas que ocorrem em diferentes nodos, permitindo o controle centralizado do experimento; a validação de aplicações que executem em sistemas distribuídos de larga escala e consideram um modelo de falhas realista deste tipo de ambiente, incluindo particionamentos de rede. A viabilidade da abordagem proposta é mostrada através do desenvolvimento do protótipo chamado FIONA (Fault Injector Oriented to Network Applications), o qual atualmente injeta falhas em aplicações desenvolvidas sob o protocolo UDP.
Resumo:
A formação de escória representa uma das maiores fontes de geração de resíduos na produção de aços inoxidáveis. Ao contrário da escória oriunda de alto-forno, as quais são amplamente estudadas e reutilizadas, a escória de aço inoxidável oriunda do processo FEA (forno elétrico a arco) é objeto de poucos estudos visando a recuperação dos materiais de valor presentes neste resíduo. Este resíduo é normalmente disposto, em grandes áreas, sem tratamento prévio. Esta prática pode representar um perigo à saúde humana devido aos materiais constituintes da escória, como metais tóxicos como, por exemplo, o cromo. Apesar disto, poucas tentativas de eliminar estes contaminantes têm sido feitas. Porém, é possível tratar este resíduo de forma a extrair os metais de valor agregado, como no caso do cromo. Sob um aspecto econômico, processos gravimétricos podem ser aplicáveis a estes tipos de resíduos. Sendo este o objetivo deste trabalho, é mostrado que, com a utilização de um separador mineral laboratorial Mozley, foi possível obter um concentrado contendo cromo, o qual pode ser tratado adequadamente para ser reutilizado, por exemplo, no processo de fabricação de aço.
Resumo:
A Formação Sergi é composta por uma espessa sucessão de depósitos fluviais, eólicos e lacustres relacionados à sedimentação jurássica pré-rifte da Depressão Afro- Brasileira. Com base em dados de subsuperfície (testemunhos e perfis), foram reconhecidas três unidades deposicionais na Formação Sergi no Campo de Fazenda Bálsamo, Bacia do Recôncavo. A Seqüência Ia interdigita-se com os pelitos do Membro Capianga e o seu limite inferior não foi determinado. Depósitos flúvio-lacustres e lençóis de areia eólicos sinalizam a franca progradação de sistemas fluviais distais, com pontuadas retrogradações lacustres e eventuais acumulações eólicas relacionadas a condições ambientais áridas e semi-áridas. A arquitetura tabular dos depósitos reproduz suaves gradientes de amplas áreas recortadas por fluxos estabelecidos em canais pouco estáveis e pobremente definidos. O seu registro relaciona-se a subidas do nível de base estratigráfico, em momentos que as taxas de suprimento sedimentar excederam as taxas de criação de espaço de acomodação, ou, de outro modo, pela progressiva redução nas taxas de subida do nível de base. A Seqüência Ib é constituída por associações de depósitos de fluxos fluviais efêmeros, lacustres e dunas, interdunas e lençóis de areia eólicos. O contato inferior é marcado por um consistente pacote eólico que denota um expressivo rebaixamento do nível de base estratigráfico, enquanto que o superior corresponde a uma superfície erosiva de caráter regional com a Seqüência II que lhe sobrepõe ou, quando da ausência desta, diretamente com os pelitos da Formação Itaparica, unidade litoestratigráfica imediata. Depósitos de dunas e interdunas eólicas na base do intervalo tiveram sua preservação assegurada pela subida do lençol freático, agente que também abasteceu corpos lacustres nas áreas topograficamente rebaixadas do campo de dunas. Seguida aos pontuais fluxos fluviais efêmeros desenvolvidos em canais rasos e pouco estáveis nas épocas mais úmidas, passavam-se longos períodos de rigor climático favoráveis aos processos eólicos. A dinâmica fluvial impôs à geometria deposicional da sucessão uma forma de corpos arenosos amalgamados, pacotes eólicos descontínuos e níveis pelíticos lenticulares. O modelo evolutivo estratigráfico para a Seqüência Ib é similar ao da Seqüência Ia, porém com variações na taxa de subida do nível de base estratigráfico ao longo do tempo. A Seqüência II ocupa a porção superior da Formação Sergi. Sua ocorrência é restrita na área de estudo se confrontada com outras partes da bacia, mas, nem por isso é destituída de importância. Suas características litológicas indicam continuidade dos processos deposicionais em sistemas fluviais de canais entrelaçados e baixa sinuosidade, supostamente associados a condições perenes e mais úmidas, com poucas evidências de variações extremas na descarga. Em resposta às baixas taxas de criação de espaço de acomodação, o registro sedimentar de uma complexa rede de canais multilaterais e multiepisódicos se manifesta em corpos arenosos amalgamados, com baixo potencial de preservação dos depósitos extracanais. A drástica mudança no estilo fluvial teria vínculo com severas mudanças climáticas, bem como a reorganização da drenagem em conseqüência de primitivas manifestações do tectonismo que atingiu seu auge no Eocretáceo, durante o rifteamento da bacia.
Resumo:
Este trabalho visa a disponibilização de um ambiente de alto desempenho, do tipo cluster de computadores, com alta exatidão, obtida através da utilização da biblioteca C–XSC. A alta exatidão na solução de um problema é obtida através da realização de cálculos intermediários sem arredondamentos como se fossem em precisão infinita. Ao final do cálculo, o resultado deve ser representado na máquina. O resultado exato real e o resultado representado diferem apenas por um único arredondamento. Esses cálculos em alta exatidão devem estar disponíveis para algumas operações aritméticas básicas, em especial as que possibilitam a realização de somatório e de produto escalar. Com isso, deseja-se utilizar o alto desempenho através de um ambiente de cluster onde se tem vários nodos executando tarefas ou cálculos. A comunicação será realizada por troca de mensagens usando a biblioteca de comunicação MPI. Para se obter a alta exatidão neste tipo de ambiente, extensões ou adaptações nos programas paralelos tiveram que ser disponibilizadas para garantir que a qualidade do resultado final realizado em um cluster, onde vários nodos colaboram para o resultado final do cálculo, mantivesse a mesma qualidade do resultado que é obtido em uma única máquina (ou nodo) de um ambiente de alta exatidão. Para validar o ambiente proposto foram realizados testes básicos abordando o cálculo do produto escalar, a multiplicação entre matrizes, a implementação de solvers intervalares para matrizes densas e bandas e a implementação de alguns métodos numéricos para a resolução de sistemas de equações lineares com a característica da alta exatidão. Destes testes foram realizadas análises e comparações a respeito do desempenho e da exatidão obtidos com e sem o uso da biblioteca C–XSC, tanto em programas seqüenciais como em programas paralelos. Com a conseqüente implementação dessas rotinas e métodos será aberto um vasto campo de pesquisa no que se refere ao estudo de aplicações reais de grande porte que necessitem durante a sua resolução (ou em parte dela) da realização de operações aritméticas com uma exatidão melhor do que a obtida usualmente pelas ferramentas computacionais tradicionais.