125 resultados para Bancos de dados
Resumo:
A mecanização agrícola tem sido um importante fator que vem contribuindo para atender o aumento na demanda por alimentos. Porém, o desenvolvimento de máquinas e implementos com maior desempenho operacional ainda carecem de uma base de informações tecnológicas sistematizadas para a implementação em novos projetos de produtos. Desta forma, o principal objetivo deste trabalho foi o de implementar um sistema capaz de gerar informações para auxiliar no desenvolvimento de novos projetos de produtos, ou mesmo na melhoria das máquinas e implementos já existentes. Para tanto, foi construído um conjunto de transdutores de força – dinamômetros do tipo anel octogonal estendido, capazes de medir solicitações em duas direções ortogonais e o momento associado a estes dois esforços. Associados a estes transdutores foram utilizados outros recursos para a formação de uma instrumentação embarcada, a fim de possibilitar os registros, em tempo real, dos dados gerados para serem armazenados em bancos de dados para posterior análises e avaliações. Com o sistema implementado foram realizados diversos conjuntos de testes de campo, onde se ensaiou uma semeadora adubadora comercial com seus elementos ativos e/ou seus componentes isolados da máquina. No primeiro teste, foi avaliada uma linha completa de uma semeadora-adubadora, onde foram medidos os esforços no disco de corte da palha, na haste sulcadora para deposição do adubo e na unidade de semeadura. Nos testes seguintes, foram realizadas avaliações em dois modelos de hastes sulcadoras, trabalhando com diversos parâmetros distintos, a fim de comparar os respectivos desempenhos entre os dois modelos estudados. Também, verificaram-se avaliações das solicitações dos esforços de tração para sulcadores de adubo tipo disco duplo e, para tracionar somente os discos de corte. Finalmente, mediram-se os esforços para o arraste do chassi durante o deslocamento em campo. Os resultados dos sensores de força combinados com a instrumentação embarcada foram considerados satisfatórios durante as medições nos testes de campo, visto a sua repetibilidade tendo como referência um sistema de calibrações prévias. Desta forma, confirmouse que os registros dos testes de campo podem servir de referência para a análise de projeto de máquinas semeadoras-adubadoras, uma vez que os mesmos foram obtidos em condições reais durante as operações de campo.
Resumo:
Esta tese tem como objeto de estudo o processo de formação e desenvolvimento da Área de Estudos da Religião nas Ciências Sociais brasileiras. Visa formular uma interpretação sociológica desse processo, a partir da abordagem teórica configuracional proposta por N. Elias, sendo esta complementada pela utilização de outras categorias de análises, tais como Identidade Histórica, Identidade Social e Identidade Cognitiva (W. Lepenies), que permitem focalizar a dinâmica deste e incorporar a sua dimensão histórica. Conforme essa orientação teórica, o objeto de estudo é reconstruído, tendo como eixo de análise a direção que este apresenta no decorrer do seu desenvolvimento. Essa direção, nesta tese, foi definida como uma tendência que oscila entre diferenciação/integração/diferenciação de grupos de pesquisadores envolvidos no processo. A partir desta tendência, são identificados e caracterizados três períodos, sendo eles: primeiro período (pré-1964): Pioneiros e precursores – uma Identidade Histórica em construção; segundo período (pós-1964 até 1986): a construção de espaços institucionais (Identidade Social) e a redefinição da Identidade Cognitiva; terceiro período (1987 em diante): uma Área de Estudos da Religião nas Ciências Sociais diferenciada internamente. A formação da Área de Estudos da Religião é analisada também levando-se em consideração as transformações do campo religioso, das Ciências Sociais e das principais condições sócio-políticas da sociedade brasileira contemporânea. Nas Considerações Finais, formula-se uma síntese comparativa dos três períodos identificados na reconstrução do processo, que fornece uma visão de conjunto da evolução do mesmo. Logo se examina, igualmente em perspectiva comparativa, a formação e o desenvolvimento da Área de Estudos da Religião nas Ciências Sociais brasileiras em relação à trajetória desses estudos nos três países do Cone Sul aqui selecionados: Argentina, Chile e Uruguai. Por fim, salientam-se algumas considerações sobre a abordagem teórica adotada neste estudo. O material empírico utilizado provém de vinte entrevistas realizadas, neste estudo, com antropólogos e sociólogos dedicados ao estudo da religião e inseridos no campo das Ciências Sociais, de uma extensa revisão bibliográfica de livros, artigos publicados em revistas acadêmicas, teses de Doutoramento e dissertações de Mestrado, bem como de bancos de dados disponibilizados pela Internet.
Resumo:
O manejo sustentado de agroecossitemas passa pelo planejamento de uso dos mesmos, para o que necessitam ser avaliados os recursos naturais e as condições sociais, culturais e econômicas dos habitantes nestes encontrados. ferramentas de geoprocessamento e sensoriamento remoto, que permitem avaliar os recursos de grandes áreas e anexar a bancos de dados georreferenciados, foram utilizados para caracterizar o meio físico e planejar o uso da fazenda El P, Departamento de Cerro largo, Uruguai. dados topográficos, planialtimétricos, de clima, solo e uso atual, foram usados para gerar os planos de informação: mapa base, modelo numérico do terreno, declividade, clima e recursos hídricos, solos, aptidão de uso dos solos, uso atual, zoneamento ambiental e conflito de uso. A pesquisa mostra que a região apresenta déficit hídrico de novembro a março; Planossolos, Solos Podzólicos, Brunizém, Vertissolos e Solos Gley predominam na mesma; estes solos apresentam ampla faixa de aptidão de uso, que facilita o zoneamento ambiental ecológico da mesma. Se considerarmos que a tradicional pecuária desenvolvida nas áreas onduladas e arroz nas várzeas constitui o uso adequado dos solos, lavouras de arroz encontradas ao longo de sistemas de drenagem, onde deveria ser mantida a vegetação ciliar natural, constitui o principal conflito de uso relacionado ao zoneamento ambiental da região. O geoprocesssamento e sensoriamento remoto mostraram-se eficientes no planejamento de uso da Fazenda Pantanoso.
Resumo:
A utilização de versões tem sido essencial em diversas aplicações de banco dados, por permitir o armazenamento e a manipulação de diferentes estados da base de dados. Durante a evolução de um esquema, o versionamento preserva todas as versões de esquemas e de seus dados associados. Por outro lado, os conceitos de bancos de dados bitemporais, que incorporam tanto tempo de transação quanto tempo de validade, provêm flexibilidade ao mecanismo de evolução de esquemas, não somente por permitir acesso a informações presentes, passadas e futuras, mas também por permitir atualizações e consultas entre as diversas versões de esquemas existentes. O objetivo principal desta tese é definir um modelo que utilize os conceitos de tempo e de versão para permitir o gerenciamento da evolução dinâmica de esquemas em bancos de dados orientados a objetos. O resultado, o Modelo Temporal de Versionamento com suporte à Evolução de Esquemas (TVSE - Temporal and Versioning Model to Schema Evolution), é capaz de gerenciar o processo de evolução de esquemas em todos os seus aspectos: versionamento e modificação de esquemas, propagação de mudanças e manipulação de dados. Esse modelo difere de outros modelos de evolução de esquemas por permitir o gerenciamento homogêneo e simultâneo do histórico da evolução do banco de dados intencional e extensional. Com o objetivo de complementar a definição deste modelo é apresentado um ambiente para gerenciar o versionamento temporal da evolução de esquemas. Desse ambiente foi implementado um protótipo da ferramenta de apoio ao gerenciamento de evolução de esquemas. Por fim, enriquecendo o universo da tese e com o intuito de prover uma maior fundamentação teórica e matemática para descrever as políticas de evolução de esquemas, é especificada uma semântica operacional para um subconjunto do modelo proposto.
Resumo:
A grande disponibilidade de informações oferece um amplo potencial comercial. Contudo, o enorme volume e diversidade de oportunidades gera um problema: limitações comerciais criadas pela seleção e a manipulação manual dessa informação. O tratamento das grandes bases de dados não estruturadas e/ou semi-estruturadas (BDNE/SE), como as trazidas pela Internet, é uma fonte de conhecimento rica e confiável, permitindo a análise de mercados. O tratamento e a estruturação dessa informação permitirá seu melhor gerenciamento, a realização de consultas e a tomada de decisões, criando diferenciais competitivos de mercado. Pesquisas em Recuperação de Informação (RI), as quais culminaram nesta tese, investem na melhoria da posição competitiva de pequenas e médias empresas, hoje inseridas, pelo comércio eletrônico, em um mercado globalizado, dinâmico e competitivo. O objetivo deste trabalho é o desenvolvimento de uma Metodologia de Extração de Informações para o Tratamento e Manipulação de Informações de Comércio Eletrônico. Chamaremos essa metodologia de EI-MNBC, ou seja, Extração de Informações em Múltiplos Níveis Baseada em Conhecimento. Os usuários da EIMNBC podem rapidamente obter as informações desejadas, frente ao tempo de pesquisa e leitura manual dos dados, ou ao uso de ferramentas automáticas inadequadas. Os problemas de volume, diversidade de formatos de armazenamento, diferentes necessidades de pesquisa das informações, entre outros, serão solucionados. A metodologia EI-MNBC utiliza conhecimentos de RI, combinando tecnologias de Recuperação de Documentos, Extração de Informações e Mineração de Dados em uma abordagem híbrida para o tratamento de BDNE/SE. Propõe-se uma nova forma de integração (múltiplos níveis) e configuração (sistema baseado em conhecimento - SBC) de processos de extração de informações, tratando de forma mais eficaz e eficiente as BDNE/SE usadas em comércio eletrônico. Esse tratamento viabilizará o uso de ferramentas de manipulação de dados estruturados, como Sistemas Gerenciadores de Bancos de Dados, sobre as informações anteriormente desestruturadas. A busca do conhecimento existente em bases de dados textuais não estruturadas demanda a compreensão desses dados. O objetivo é enfatizar os aspectos cognitivos superficiais envolvidos na leitura de um texto, entendendo como as pessoas recuperam as informações e armazenando esse conhecimento em regras que guiarão o processo de extração. A estrutura da metodolo gia EI-MNBC é similar a de um SBC: os módulos de extração (máquinas de inferência) analisam os documentos (eventos) de acordo com o conteúdo das bases de conhecimento, interpretando as regras. O resultado é um arquivo estruturado com as informações extraíd as (conclusões). Usando a EI-MNBC, implementou-se o SE-MNBC (Sistema de Extração de Informações em Múltiplos Níveis Baseado em Conhecimento) que foi aplicado sobre o sistema ETO (Electronic Trading Opportunities). O sistema ETO permite que as empresas negociem através da troca de e-mails e o SE-MNBC extrai as informações relevantes nessas mensagens. A aplicação é estruturada em três fases: análise estrutural dos textos, identificação do assunto (domínio) de cada texto e extração, transformando a informação não estruturada em uma base de dados estruturada.
Resumo:
Atualmente, um dos grandes desafios para qualquer desenvolvedor de software é projetar um sistema que reutilize ao máximo elementos de código e de projeto existentes, visando diminuir o tempo e o esforço exigidos na produção do software. Entre as inúmeras formas de possibilitar reuso no contexto do desenvolvimento segundo o paradigma da orientação a objetos, destaca-se a abordagem de frameworks. A grande importância da documentação de software utilizada no processo de desenvolvimento aliada às características de frameworks serviram como motivação para este trabalho. A documentação dentro do processo de desenvolvimento de software não faz parte de uma fase definida, mas ocorre durante toda sua existência, em paralelo com outras fases do ciclo de vida. A abordagem de frameworks dentro deste contexto enfoca o tratamento de templates e definições das características dos artefatos de software (incluindo não somente código mas também produtos de análise, projeto, frameworks, componentes, diagramas, entre outros), facilitando e acelerando o processo de documentação. Um framework, devido a suas características peculiares que serão examinadas e explicitadas no trabalho, contém uma série de informações que podem, além de apoiar a documentação, ser úteis para produção de outros artefatos (por exemplo, planejamentos de teste, scripts de bancos de dados, padrões de codificação, entre outros) do processo de desenvolvimento. Assim, em um processo de desenvolvimento evolutivo, que utiliza a geração de artefatos como recurso, a manutenção pode ser integralmente realizada somente na especificação e não diluída nos artefatos gerados. O objetivo deste trabalho é investigar, propor e desenvolver uma ferramenta de documentação e geração de artefatos de software, denominado FrameworkDoc. O termo documentação de software aqui utilizado se refere a documentação de desenvolvimento de software, incluindo artefatos, arquiteturas, ferramentas entre outros. Serão abordados dois principais aspectos: primeiramente, a geração automática de documentação dentro do processo de desenvolvimento de software e depois a geração de outros artefatos deste processo, a partir das definições de alto nível disponíveis através do framework. Exemplos de aplicações do FrameworkDoc em projetos reais são apresentados. No entanto, os documentos e artefatos de software considerados foram definidos de forma suficientemente genérica para serem aproveitados em outros contextos.
Resumo:
Modelos de bancos de dados têm sido progressivamente estendidos a fim de melhor capturar necessidades específicas de aplicações. Bancos de dados versionados, por exemplo, provêm suporte a versões alternativas de objetos. Bancos de dados temporais, por sua vez, permitem armazenar todos os estados de uma aplicação, registrando sua evolução com o passar do tempo. Tais extensões sobre os modelos de dados se refletem nas respectivas linguagens de consulta, normalmente sob a forma de extensões a linguagens conhecidas, tais como SQL ou OQL. O modelo de banco de dados TVM (Temporal Versions Model ), definido sobre o modelo de banco de dados orientado a objetos, suporta simultaneamente versões alternativas e o registro de alterações de objetos ao longo do tempo. A linguagem de consulta TVQL (Temporal Versioned Query Language), definida a partir da linguagem de consulta SQL, permite recuperar informações do modelo de dados TVM. As construções introduzidas em TVQL têm como objetivo tornar simples a consulta do banco de dados em diversos pontos da linha temporal. Apesar das vantagens da utilização da linguagem TVQL para resgatar dados temporais do modelo TVM, existem algumas limitações importantes para seu aprimoramento. Uma delas é a alta complexidade do modelo TVM, proveniente da integração de conceitos variados como estados alternativos e rótulos temporais. Outro ponto é que, até o presente momento, não existe um interpretador para TVQL, impedindo uma experiência prática de programação de consultas. O objetivo principal deste trabalho é o desenvolvimento de uma especificação formal para a linguagem TVQL, tornando possível um estudo consistente de suas construções. Adicionalmente, uma especificação formal serve como documentação para futuras implementações de interpretadores. Neste trabalho foi desenvolvido um protótipo de avaliador de consultas e verificador de tipos para um núcleo funcional da linguagem TVQL, possibilitando também uma experimentação prática sobre os modelos propostos.
Resumo:
The work described in this thesis aims to support the distributed design of integrated systems and considers specifically the need for collaborative interaction among designers. Particular emphasis was given to issues which were only marginally considered in previous approaches, such as the abstraction of the distribution of design automation resources over the network, the possibility of both synchronous and asynchronous interaction among designers and the support for extensible design data models. Such issues demand a rather complex software infrastructure, as possible solutions must encompass a wide range of software modules: from user interfaces to middleware to databases. To build such structure, several engineering techniques were employed and some original solutions were devised. The core of the proposed solution is based in the joint application of two homonymic technologies: CAD Frameworks and object-oriented frameworks. The former concept was coined in the late 80's within the electronic design automation community and comprehends a layered software environment which aims to support CAD tool developers, CAD administrators/integrators and designers. The latter, developed during the last decade by the software engineering community, is a software architecture model to build extensible and reusable object-oriented software subsystems. In this work, we proposed to create an object-oriented framework which includes extensible sets of design data primitives and design tool building blocks. Such object-oriented framework is included within a CAD Framework, where it plays important roles on typical CAD Framework services such as design data representation and management, versioning, user interfaces, design management and tool integration. The implemented CAD Framework - named Cave2 - followed the classical layered architecture presented by Barnes, Harrison, Newton and Spickelmier, but the possibilities granted by the use of the object-oriented framework foundations allowed a series of improvements which were not available in previous approaches: - object-oriented frameworks are extensible by design, thus this should be also true regarding the implemented sets of design data primitives and design tool building blocks. This means that both the design representation model and the software modules dealing with it can be upgraded or adapted to a particular design methodology, and that such extensions and adaptations will still inherit the architectural and functional aspects implemented in the object-oriented framework foundation; - the design semantics and the design visualization are both part of the object-oriented framework, but in clearly separated models. This allows for different visualization strategies for a given design data set, which gives collaborating parties the flexibility to choose individual visualization settings; - the control of the consistency between semantics and visualization - a particularly important issue in a design environment with multiple views of a single design - is also included in the foundations of the object-oriented framework. Such mechanism is generic enough to be also used by further extensions of the design data model, as it is based on the inversion of control between view and semantics. The view receives the user input and propagates such event to the semantic model, which evaluates if a state change is possible. If positive, it triggers the change of state of both semantics and view. Our approach took advantage of such inversion of control and included an layer between semantics and view to take into account the possibility of multi-view consistency; - to optimize the consistency control mechanism between views and semantics, we propose an event-based approach that captures each discrete interaction of a designer with his/her respective design views. The information about each interaction is encapsulated inside an event object, which may be propagated to the design semantics - and thus to other possible views - according to the consistency policy which is being used. Furthermore, the use of event pools allows for a late synchronization between view and semantics in case of unavailability of a network connection between them; - the use of proxy objects raised significantly the abstraction of the integration of design automation resources, as either remote or local tools and services are accessed through method calls in a local object. The connection to remote tools and services using a look-up protocol also abstracted completely the network location of such resources, allowing for resource addition and removal during runtime; - the implemented CAD Framework is completely based on Java technology, so it relies on the Java Virtual Machine as the layer which grants the independence between the CAD Framework and the operating system. All such improvements contributed to a higher abstraction on the distribution of design automation resources and also introduced a new paradigm for the remote interaction between designers. The resulting CAD Framework is able to support fine-grained collaboration based on events, so every single design update performed by a designer can be propagated to the rest of the design team regardless of their location in the distributed environment. This can increase the group awareness and allow a richer transfer of experiences among them, improving significantly the collaboration potential when compared to previously proposed file-based or record-based approaches. Three different case studies were conducted to validate the proposed approach, each one focusing one a subset of the contributions of this thesis. The first one uses the proxy-based resource distribution architecture to implement a prototyping platform using reconfigurable hardware modules. The second one extends the foundations of the implemented object-oriented framework to support interface-based design. Such extensions - design representation primitives and tool blocks - are used to implement a design entry tool named IBlaDe, which allows the collaborative creation of functional and structural models of integrated systems. The third case study regards the possibility of integration of multimedia metadata to the design data model. Such possibility is explored in the frame of an online educational and training platform.
Resumo:
O tratamento de modificação de óxidos (e sulfetos) com cálcio tornou-se usual na produção de aços de elevada limpeza interna. O conhecimento da composição química de inclusões, dependendo da composição do aço líquido, é requisito fundamental para garantir a lingotabilidade desses aços e propriedades mecânicas adequadas dependendo da aplicação dos mesmos. O objetivo deste trabalho foi o estudo da composição química de inclusões ao longo do processo de refino secundário, com enfoque no tratamento com cálcio. Para tanto, foram comparados dados experimentais (planta industrial) com simulações via termodinâmica computacional (software FactSage). A metodologia utilizada consistiu em: a) obtenção de dados experimentais para determinar os dados de entrada das simulações; b) utilizar os bancos de dados e a rotina de minimização da Energia de Gibbs do software FactSage, para calcular o equilíbrio entre as fases aço líquido (modelo associado) e inclusões (escória - modelo quase-químico modificado) e; c) comparar os resultados obtidos na planta industrial com os simulados via FactSage. O acompanhamento do processo de elaboração do aço na Gerdau Aços Especiais Piratini (AEP) foi fundamental para identificar eventuais desvios de processo, bem como para interpretar eventuais discrepâncias entre os resultados Na simulação de todas as provas, verificou-se que é fundamental um baixo desvio-padrão na análise dos elementos, se o objetivo é simular um padrão de elaboração de aço. Como resultado deste trabalho, verificou-se ainda que entre 10 e 14 ppm é a faixa ideal de cálcio para a formação de inclusões líquidas com teor mínimo de CaS, para os níveis de oxigênio, enxofre e alumínio do SAE 8620 na etapa final do processo de elaboração desse aço na AEP. É importante destacar que faixas mais amplas de cálcio podem ser utilizadas, dependendo do tipo de processo na aciaria e do tipo de produto requerido.
Resumo:
Esta tese objetiva identificar os impactos dos investimentos em Tecnologia de Informação (TI) nas variáveis estratégicas e na eficiência dos bancos brasileiros. Para a realização da investigação, utilizaram-se vários métodos e técnicas de pesquisa: (1) entrevista com executivos para identificar o papel da TI nos bancos; (2) survey com executivos dos bancos para selecionar as variáveis estratégicas organizacionais em que os efeitos da TI são mais significativos; (3) entrevista com executivos para adaptar as variáveis como input e output observáveis em contas de balanço; e (4) método de Pesquisa Operacional para elaborar um modelo de análise de eficiência e aplicar a técnica de Data Envelopment Analysis (DEA) para avaliar a efetividade de conversão dos investimentos em TI. A entrevista exploratória com os executivos dos bancos permitiu identificar como os bancos utilizam a TI e o seu papel como ferramenta estratégica. O processo de validação e purificação do instrumento (questionário) e dos constructos utilizados na survey fez uso de procedimentos qualitativos e quantitativos, como: validade de face e conteúdo, card sorting, análise de fidedignidade (coeficiente alfa de Cronbach), análise de correlação item- total corrigido (CITC), análise fatorial exploratória nos blocos e entre blocos, e análise fatorial confirmatória. O instrumento também foi validado externamente com executivos de bancos americanos. A partir do conjunto final de construtos, foram identificados variáveis de input e output observáveis em contas de balanço visando à elaboração e à definição do modelo de análise de eficiência. O modelo de eficiência estrutura-se no conceito de efetividade de conversão, que pressupõe que os investimentos em TI, combinados com outras variáveis de input (despesas com pessoal, outras despesas administrativas, e despesas de internacionalização) transformam-se em output (receitas líquidas de intermediação financeira, de prestação de serviços e de operações internacionais). Uma característica adicional do modelo é a representação em dois estágios: os investimentos em TI geram incremento nas receitas, mas esta relação é intermediada pela acumulação de ativos, financeiros e não financeiros. Os dados de balanço dos 41 bancos incluídos na amostra, de 1995 a 1999, foram fornecidos pelo Banco Central do Brasil. A aplicação do modelo na amostra selecionada indica claramente que apenas investir em TI não proporciona efetiva eficiência. Por outro lado, os bancos que mais investiram em TI no período analisado ganharam eficiência relativamente ao conjunto de bancos analisados. Dentre os resultados desta tese, podem ser destacados: o modelo de pesquisa, o conjunto de constructos e o instrumento (questionário), o processo de observação de input e output em contas de balanço e o modelo de análise de eficiência.
Resumo:
O sistema bancário consiste em um setor da economia muito regulado, e uma das medidas impostas pelas autoridades supervisoras como forma de controle é exigência mínima de capital. Uma das formas encontradas para oferecer maior proteção aos clientes e ao mercado financeiro como um todo é a imposição aos bancos em manterem níveis mínimos de capital vinculados aos riscos a que estão expostos, medida que serve como recurso para desestimular a exposição a riscos não usuais. O capital bancário, portanto, constitui-se em instrumento de proteção contra o risco de quebra de uma instituição, e, desde a adesão ao Acordo Internacional da Basiléia, com vigência a partir de 1995, os bancos brasileiros têm de manter patrimônio líquido compatível com o grau de risco da estrutura de seus ativos. O presente trabalho explora a existência e o grau de relação entre exigência mínima de capital ponderado pela exposição de risco dos ativos e a rentabilidade dos bancos brasileiros, a fim de contribuir para uma análise da situação atual das instituições em relação às normas vigentes sobre requerimento de capital. Trata-se de pesquisa empírica, a qual procura levantar indicações exploratórias, evidenciadas por graus de correlações, mensurados através de estimação com dados em painel. A literatura internacional que versa sobre os impactos da existência de regulação de capital nos bancos demonstra-se divergente e, em alguns casos, não–conclusiva. Os resultados encontrados neste trabalho, com base em amostra composta por bancos brasileiros, não evidenciam relações significativas entre indicador de rentabilidade e indicador de capital ponderado pelos riscos, conhecido no Brasil como Índice de Basiléia. Algumas considerações são sugeridas para justificarem os resultados alcançados, tais como a preferência das instituições por aplicações em ativos de menor risco, como títulos públicos, a arbitragem de capital, proporcionada, principalmente, pelo grau de risco imposto às operações ativas, e a facilidade de enquadrarem-se aos limites mínimos de capital adotados no Brasil, evidenciada pelas altas margens de folga observadas.
Resumo:
Este trabalho apresenta um estudo experimental das características do escoamento turbulento nas primeiras fileiras de bancos de tubos. São estudados os escoamentos sobre três geometrias de arranjos de tubos: dois tubos posicionados lado a lado normais ao escoamento, uma fileira de tubos transversal ao escoamento e bancos de tubos de configuração quadrangular, com três razões de espaçamento diferentes. O objetivo é entender o comportamento das instabilidades e fenômenos aleatórios e transientes que ocorrem nas primeiras fileiras de bancos de tubos e se propagam para o seu interior. Os resultados experimentais são obtidos através de medições em túnel de vento e visualizações em canal de água. Para a obtenção dos campos de velocidade é utilizada a técnica de anemometria de fio quente e para as medições de pressão é utilizado um transdutor de pressão piezo resistivo. Os dados experimentais obtidos são analisados por ferramentas estatísticas, espectrais e de ondaletas. As visualizações são feitas através da técnica de injeção de tinta diretamente no escoamento. Os resultados mostram a presença de instabilidades geradas a partir da segunda fileira do banco de tubos, que se propagam para o interior, gerando um comportamento onde as três componentes ortogonais do escoamento são igualmente importantes. O comportamento tridimensional do escoamento é responsável por uma redistribuição de massa dentro do banco de tubos que leva a valores de velocidade e números de Strouhal não esperados para a geometria estudada.
Resumo:
O objeto deste trabalho é fornecer dados hidrológicos com fins de caracterização e monitoramento da região da Cadeia Norte do Brasil e da Cadeia de Fernando de Noronha, assim como levantar e sistematizar informações sobre a geoquímica dos diversos tipos de sedimentos encontrados na plataforma continental externa adjacente ao banco Aracati, contribuindo para o levantamento dos potenciais sustentáveis de exploração dos recursos vivos da Zona Econômica Exclusiva. A área em estudo compreende a sub-área II, setor 1 e parte do setor 2, e está localizada entre 1oN e 5oS de latitude e entre 30o e 40oW de longitude, abrangendo uma área de aproximadamente 400.000 km2. Foram analisadas amostras coletadas em 8 estações resultando em 20 amostras de sedimentos nos anos de 1997 (verão), 1998 (outono) e 2000 (primavera) e 34 estações que originaram 272 amostras de água na primavera de 2000. As concentrações máximas dos parâmetros analisados, com exceção do fosfato, nas amostras de água se localizam na região próxima à costa. Detectou-se na área uma termoclina bem marcada, sendo mais profunda na primavera. A camada de mistura é bastante homogênea, sendo porém, mais espessa na primavera. O pH detectado encontra-se na faixa alcalina sendo os maiores valores de pH detectados na primavera. Verifica-se, um máximo de salinidade na camada de inicio da termoclina sazonal. Não verificou-se na área condição anaeróbica na coluna d’água. A distribuição de fosfato, nitrato e silicato, apresenta-se de forma muito semelhante, sendo que na primavera essas concentrações são maiores, nas camadas superficiais. Na cobertura sedimentar da plataforma continental adjacente aos bancos da cadeia norte do Brasil, encontro-se areia quartzosa, areia carbonática, fragmentos de concha, Lithothanmium e Halimedas. Os fragmentos de concha apresentaram as maiores concentrações totais de metais, enquanto Lithothanmium apresentou o maior teor de carbonato. Há uma forte correlação entre ferro e manganês na amostras de água e em todas as frações de sedimentos analisadas, sendo que nestas a relação média entre estes elementos é da ordem de 1:25. Existe forte correlação entre cromo e carbonato nas amostras que apresentam teor de carbonato maior que 20%. As amostras de areia quartzosa, fragmentos de concha e Halimedas, apresentam-se muito semelhantes quanto à distribuição de ferro, manganês, zinco e cromo. Existe forte correlação nas amostras de sedimento, assim como nas amostras de água, entre ferro, manganês, zinco, correlacionando-se também nas amostras de sedimento com o chumbo. As 8 concentrações de metais nas amostras de água apresentaram-se relativamente baixas em se comparando com as amostras de sedimento. Nas amostras de água as concentrações de cromo e chumbo estão abaixo do limite de detecção.