30 resultados para Falhas estruturais

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem por objetivo desenvolver e implementar, computacionalmente, procedimentos numéricos eficientes, aplicados à determinacão do diagrama momento-curvatura, correspondentes à: -uma seção tipica, em vigas de concreto armado, submetida à carga monotônica ou cíclica de curta duração; - um ponto genérico da superficie média em placas de concreto armado, submetidas à carga monotônica de curta duração. Ainda à luz dos resultados obtidos, visa também propôr um modelo simplificado em termos de resultantes de tensões e deformações generalizadas. Inicialmente, é descrito um modelo laminar para vigas, no qual a carga é aplicada de forma incremental sendo que para cada etapa, as equaçães de equilibrio não-lineares são resolvidas de maneira iterativa. Como consequência é proposta uma relação momento-curvatura em termos de resultantes. A fim de verificar a validade e aplicabilidade dos métodos e dos algorítmos estudados e comparar-se os resultados com dados experimentais e respostas obtidas por outros pesquisadores, é apresentada uma série de exemplos numéricos. A continuação, é aplicado o procedimento anterior para modelos de laje, livres de solicitações de membrana. Finalmente através de um estudo paramétrico dos diversos fatores que afetam o diagrama momento-curvatura, propõe-se uma relação simplificada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O modelo de objetos apresenta-se como um modelo promissor para o desenvolvimento de software tolerante a falhas em virtude de características inerentes ao próprio modelo de objetos, tais como abstração de dados, encapsulamento, herança e reutilização de objetos (componentes). O uso de técnicas orientadas a objetos facilita o controle da complexidade do sistema porque promove uma melhor estruturação de seus componentes e também permite que componentes já validados sejam reutilizados [LIS96]. Técnicas básicas para tolerância a falhas em software baseiam-se na diversidade de projeto e de implementação de componentes considerados críticos. Os componentes diversitários são gerenciados através de alguma técnica que tenha por objetivo assegurar o fornecimento do serviço solicitado, como, por exemplo, a conhecida técnica de blocos de recuperação. Reflexão Computacional é a capacidade que um sistema tem de fazer computações para se auto analisar. Ela é obtida quando o programa pára sua execução por um período de tempo para fazer computações sobre si próprio; analisa seu estado, se o processamento está correto, se pode prosseguir com a execução e atingir o objetivo satisfatoriamente; se não precisa mudar de estratégia ou algoritmo de execução, fazendo, ainda, processamentos necessários para o sucesso da execução. Um sistema de programação distribuída consiste basicamente em vários aplicativos executados em diferentes computadores, os quais realizam troca de mensagens para solucionar um problema comum. A comunicação entre os computadores é realizada através da rede que os interliga. As Redes que controlam sistemas críticos são normalmente de pequena escala pois redes de grandes dimensões podem apresentar atrasos e baixa confiabilidade. Portanto, a abordagem aqui proposta consiste em utilizar, em um ambiente distribuído, uma arquitetura reflexiva aliada a técnicas do domínio da tolerância a falhas para promover a separação entre as atividades de controle, salvamento, recuperação, distribuição e validação de componentes e as funcionalidades executadas pelo próprio componente, a fim de que falhas não venham a prejudicar a disponibilidade, confiabilidade e clareza de determinadas computações. A proposta apóia-se num estudo de caso, implementado na linguagem de programação Java, com seus protocolos de reflexão computacional e de comunicação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Um dos modos de avaliar a confiabilidade de um produto é verificando o comportamento das falhas em testes de uso contínuo. Contudo, essa informação não permite saber em que data a falha ocorrerá. Para resolver esse impasse abordamos na presente dissertação a modelagem dos tempos de falha ao longo do calendário. A modelagem desses tempos permite uma melhor administração do sistema de garantia e assistência técnica, além de possibilitar a empresa estimar e monitorar a confiabilidade do produto. Para proceder com a modelagem, é preciso, inicialmente, conhecer a distribuição de três variáveis: o tempo de vida do produto, em horas de uso contínuo; o tempo de uso do produto, em horas por dia; e o intervalo de tempo entre a manufatura e a venda, em dias. Conhecendo o comportamento dessa variáveis duas alternativas de solução são apresentadas: (a) Modelagem via simulação de Monte Carlo e (b) Modelagem através de solução matemática fechada. São discutidos os casos em que há um ou vários grupos de clientes que utilizam o produto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho apresentam-se pocedimentos para análise não linear de estruturas de materiais compostos laminados reforçados por fibras. A formulação é baseada em uma descrição cinemática incremental Lagrangeana Total, que permite o tratamento de deslocamentos arbitrariamente grandes com pequenas deformações, utilizando elementos finitos tridimensionais degenerados deduzidos para a análise de cascas. As estruturas são consideradas como submetidas a cargas mecânicas e a ações de temperatura e de umidade. O material é suposto elástico linear com propriedades dependentes, ou não, dos valores da temperatura e da concentração de umidade, ou viscoelástico linear com uma relação constitutiva em integral hereditária , e com comportamento higrotermo-reologicamente simples. As lâminas são consideradas como sujeitas a falhas, as quais são detectadas através de critérios macroscópicos, baseados em tensões ou em deformações. As equações não lineares de equilíbrio são resolvidas através de procedimentos iterativos e as deformações dependentes do tempo são avaliadas pelo método das variáveis de estado. Diversos exemplos numéricos de estruturas submetidas à flexão, flambagem elástica e viscoelástica e falhas são apresentados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A necessidade cada vez maior de efetuar a reabilitação de estruturas que apresentam manifestações patológicas faz com que os profissionais da área busquem continuamente aperfeiçoar os meios tradicionais utilizados para este fim e investigar novos materiais que apresentem vantagens técnicas e econômicas. A utilização de tecidos de fibra de carbono para reabilitação ou reforço de estruturas de concreto armado apresenta-se como uma nova alternativa que tem despertado grande interesse tanto no meio científico quanto no meio profissional, justificando-se o seu estudo. A presente pesquisa investiga a sanidade do reforço quando submetido a elevadas temperaturas, uma vez que o risco de perda da integridade durante um incêndio constitui uma das principais preocupações no que se refere a esta nova técnica, pois a aderência do tecido ao substrato é realizada com adesivo epóxi, altamente vulnerável ao efeito do calor. A degradação em termos de perda de resistência do reforço é avaliada para temperaturas variando de 80 °C à 240 °C e tempos de exposição de 30 à 120 min. Proteções passivas com argamassa de revestimento e gesso aplicadas sobre a matriz de epóxi, como forma de atenuar a degradação do polímero, são também investigadas Pesquisas e várias combinações destas variáveis e os resultados indicam que o adesivo epóxi apresenta um processo de volatilização crescente com o aumento da temperatura, comprometendo a eficácia da técnica de reforço; no entanto, a aplicação de revestimentos incombustíveis e isolantes sobre os elementos reforçados retarda este fenômeno. O estabelecimento do que se constitui em boa técnica para a aplicação de reforço com tecidos de fibra de carbono é de vital importância para evitar o colapso de elementos estruturais reforçados ou, ao menos, garantir estanqueidade e isolamento dos mesmos por um intervalo de tempo suficiente que possibilite a retirada dos ocupantes e as operações de combate ao incêndio em condições de segurança.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta um método para detectar falhas no funcionamento de máquinas rotativas baseado em alterações no padrão de vibração do sistema e no diagnóstico da condição de operação, por Lógica Fuzzy. As modificações ocorridas são analisadas e servem como parâmetros para predizer falhas incipientes bem como a evolução destas na condição de operação, possibilitando tarefas de manutenção preditiva. Utiliza-se uma estrutura mecânica denominada de Sistema Rotativo (Figura 1), apropriada para as simulações das falhas. Faz-se a aquisição de dados de vibração da máquina usando-se um acelerômetro em chip biaxial de baixa potência. As saídas são lidas diretamente por um contador microprocessador não requerendo um conversor A/D. Um sistema de desenvolvimento para processamento digital de sinais, baseado no microprocessador TMS320C25, o Psi25, é empregado na aquisição dos sinais de vibração (*.dat), do Sistema Rotativo. Os arquivos *.dat são processados através da ferramenta matemática computacional Matlab 5 e do programa SPTOOL. Estabelece-se o padrão de vibração, denominado assinatura espectral do Sistema Rotativo (Figura 2) Os dados são analisados pelo sistema especialista Fuzzy, devidamente calibrado para o processo em questão. São considerados, como parâmetros para a diferenciação e tomada de decisão no diagnóstico do estado de funcionamento pelo sistema especialista, a freqüência de rotação do eixo-volante e as amplitudes de vibração inerentes a cada situação de avaria. As falhas inseridas neste trabalho são desbalanceamentos no eixovolante (Figura 1), através da inserção de elementos desbalanceadores. A relação de massa entre o volante e o menor elemento desbalanceador é de 1:10000. Tomando-se como alusão o conhecimento de especialistas no que se refere a situações normais de funcionamento e conseqüências danosas, utilizam-se elementos de diferentes massas para inserir falhas e diagnosticar o estado de funcionamento pelo sistema fuzzy, que apresenta o diagnóstico de formas qualitativa: normal; falha incipiente; manutenção e perigo e quantitativa, sendo desta maneira possível a detecção e o acompanhamento da evolução da falha.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A prestação de serviços tem sido um importante diferencial dentro do cenário competitivo atual. Para empresas de manufatura, um desses serviços de destaque é o atendimento à garantia, o qual deve ser desenhado de forma a maximizar a satisfação do cliente, operando dentro de custos otimizados. Para permitir a alocação mais eficiente de recursos aos serviços de atendimento à garantia, é importante entender o comportamento das falhas do produto durante o período de garantia, o qual depende da confiabilidade do produto, do tempo e intensidade de uso e do volume de vendas. Esta dissertação trata da aplicação e adaptação de um modelo apropriado para a predição de falhas durante o período de garantia. Esse modelo poderá auxiliar as organizações a manter controle sobre o custo do atendimento à garantia, auxiliando na melhoria contínua dos serviços prestados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tolerância a falhas é um dos aspectos mais importantes a serem considerados no desenvolvimento de aplicações, especialmente com a participação cada vez maior de sistemas computacionais em áreas vitais da atividade humana. Dentro deste cenário, um dos fatores a serem considerados na persecução deste objetivo é o gerenciamento de atomicidade. Esta propriedade, por sua vez, apresenta duas vertentes principais: o controle de concorrência e a recuperação de estados. Considerando-se a tolerância a falhas e, particularmente, a atomicidade como requisitos com alto grau de recorrência em aplicações, verifica-se a importância de sua reutilização de forma simples e transparente e do estudo de meios de prover tal capacidade. O presente trabalho procurou pesquisar e aplicar meios de produzir soluções reutilizáveis para implementação de programas tolerantes a falhas, mais especificamente de técnicas de controle de atomicidade, utilizando vários paradigmas computacionais. Neste intuito, foram pesquisados mecanismos de introdução de atomicidade em aplicações e suas respectivas demandas, para então extrair critérios de análise dos paradigmas a serem utilizados na implementações das soluções. Buscou-se suporte nestes paradigmas às demandas previamente pesquisadas nos mecanismos de gerenciamento de atomicidade e procurou-se chegar a soluções reutilizáveis mantendo simplicidade de uso, possibilidade de alteração dinâmica, transparência, adaptabilidade e velocidade de desenvolvimento. Devido à existência de uma grande diversidade de situações que requerem diferentes implementações de atomicidade, alguns cenários típicos foram selecionados para aplicação e avaliação das técnicas aqui sugeridas, procurando abranger o maior número possível de possibilidades. Desta maneira, este trabalho comparou situações opostas quanto à concorrência pelos dados, implementando cenários onde ocorrem tanto acesso cooperativo quanto competitivo aos dados. Dentro de cada um dos cenários estudados, buscaram-se situações propícias ao emprego das características dos paradigmas e analisou-se o resultado de sua aplicação quanto aos critérios definidos anteriormente. Várias soluções foram analisadas e comparadas. Além dos mecanismos de gerenciamento de atomicidade, também foram estudados vários paradigmas que pudessem ser empregados na implementação de soluções com alto grau de reutilização e adaptabilidade. As análises e sugestões posteriores às implementações serviram como substrato para conclusões e sugestões sobre a melhor maneira de empregar tais soluções nos cenários atômicos estudados. Com isso, foi possível relacionar características e capacidades de cada paradigma com a melhor situação de demanda de atomicidade na qual os mesmos são aplicáveis, moldando uma linha de soluções que favoreçam sua reutilização. Um dos objetivos mais importantes do trabalho foi, entretanto, observar o funcionamento conjunto destes paradigmas, estudando como os mesmos podem atuar de forma simbiótica e de que forma os conceitos de um paradigma podem complementar os de outro.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho é apresentado o desenvolvimento de um método de análise de falhas, por meio de análise de vibrações, para a bancada de final de linha das transmissões dos tratores linha 5000 da John Deere Brasil, o qual tem como finalidade diferenciar transmissões aprovadas de transmissões com defeito em engrenagens na caixa de marchas, e também auxiliar na identificação da engrenagem com defeito. Para o desenvolvimento deste método foram utilizados equipamentos de medição e aquisição de dados disponíveis na John Deere Brasil. Os testes foram realizados na bancada de final da linha de transmissões, possibilitando a aplicação do método sem a necessidade de alteração na bancada de testes. Os sinais padrões da transmissão em cada uma das quatro marchas foram levantados através da medição de quatro transmissões boas. De posse destes padrões, (assinatura em cada marcha), partiu-se para a identificação de como estes são alterados por diferentes defeitos em diversas engrenagens da caixa de marchas, sendo para isto induzidos defeitos em diferentes engrenagens da caixa de marchas de transmissões boas. Os sinais em todas as marchas nestas transmissões com defeito induzido foram medidos e analisado as alterações em relação aos padrões, resultando a conclusão de que a aplicação do método de análise de vibrações no final de linha de transmissões da John Deere Brasil é possível, tanto para a diferenciação entre transmissões boas e transmissões com defeito em engrenagens da caixa de marchas, quanto como auxiliar na identificação de qual engrenagem da caixa de marchas está com defeito.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Técnicas de tolerância a falhas visam a aumentar a dependabilidade dos sistemas nos quais são empregadas. Entretanto, há necessidade de garantir a confiança na capacidade do sistema em fornecer o serviço especificado. A validação possui como objetivo propiciar essa garantia. Uma técnica de validação bastante utilizada é a injeção de falhas, que consiste na introdução controlada de falhas no sistema para observar seu comportamento. A técnica de injeção de falhas acelera a ocorrência de falhas em um sistema. Com isso, ao invés de esperar pela ocorrência espontânea das falhas, pode-se introduzi-las intencionalmente, controlando o tipo, a localização, o disparo e a duração das falhas. Injeção de falhas pode ser implementada por hardware, software ou simulação. Neste trabalho são enfocadas técnicas de injeção de falhas por software, desenvolvidas nos níveis da aplicação e do sistema operacional. O trabalho apresenta o problema da validação, através da injeção de falhas, de um protocolo de troca de pacotes. Enfoque especial é dado ao impacto resultante da inclusão de um módulo extra no protocolo, uma vez que o mesmo apresenta restrições temporais. O trabalho investiga alternativas de implementação de injetores de falhas por software que minimizem este impacto. Tais alternativas referem-se a localização do injetor de falhas no sistema, a forma de ativação das atividades do injetor de falhas e a operação de injeção de falhas em si. Um toolkit para experimentos de intrusão da injeção de falhas é apresentado. O alvo da injeção de falhas é um protocolo com característica tempo real. O toolkit desenvolvido, denominado INFIMO (INtrusiveless Fault Injector MOdule), visa a analisar, de forma experimental, a intrusão do injetor de falhas sobre o protocolo alvo. O INFIMO preocupa-se com protocolos com restrições temporais por esses constituírem um desafio sob o ponto de vista de injeção de falhas. O INFIMO suporta falhas de comunicação, as quais podem ocasionar a omissão de alguns pacotes. O INFIMO apresenta duas ferramentas de injeção de falhas: INFIMO_LIB, implementada no nível da aplicação e INFIMO_DBG implementada com auxílio de recursos do sistema operacional. Destacam-se ainda como contribuições do INFIMO a definição e a implementação do protocolo alvo para experimentos de injeção de falhas, o protocolo INFIMO_TAP. Além disso, o INFIMO apresenta métricas para avaliação da intrusão provocada pelo injetor de falhas no protocolo alvo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho realiza uma validação experimental, através da técnica de injeção de falhas por software, de sistemas de informações que utilizam gerenciadores de banco de dados distribuídos comerciais. Estes experimentos visam a obtenção de medidas da dependabilidade do SGBD utilizado, levantamento do custo de seus mecanismos de tolerância a falhas e a real aplicabilidade de SGBDs comerciais em sistemas de missão crítica. Procurou-se avaliar e validar as ferramentas de injeção de falhas utilizadas, no caso específico deste trabalho a ComFIRM e o FIDe. Inicialmente são introduzidos e reforçados os conceitos básicos sobre o tema, que serão utilizados no decorrer do trabalho. Em seguida são apresentadas algumas ferramentas de injeção de falhas em sistemas distribuídos, bem como os modelos de falhas em banco de dados distribuídos. São analisados alguns estudos de aplicação de ferramentas de injeção de falhas em bancos de dados distribuídos. Concluída a revisão bibliográfica é apresentado o modelo de software e hardware que foi implementado, destacando o gerador de cargas de trabalho GerPro-TPC e o gerenciador de injeções e resultados GIR. O GerPro-TPC segue as especificações TPC-c para a simulação de um ambiente transacional comercial padrão e o GIR realiza a integração das ferramentas de injeção de falhas utilizadas, bem como a elaboração do cenário de falhas a injetar e a coleta dos resultados das falhas injetadas. Finalmente são descritos os experimentos realizados sobre o SGBD PROGRESS. São realizados 361 testes de injeções de falhas com aproximadamente 43.000 falhas injetadas em experimentos distintos. Utiliza-se dois modelos de falhas: um focado em falhas de comunicação e outro em falhas de hardware. Os erros resultantes das falhas injetadas foram classificados em erros ignorados/mascarados, erros leves, erros graves e erros catastróficos. Dos modelos de falhas utilizados as que mais comprometeram a dependabilidade do SGBD foram as falhas de hardware. As falhas de comunicação somente comprometeram a disponibilidade do sistema alvo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Na protensão não aderente, a armadura permanece livre para se movimentar ao longo de seu perfil em todas as seções com exceção das de ancoragem. Não há aderência entre concreto e armadura, e a hipótese da compatibilidade de deformações entre o aço e concreto não é aplicável, tornando inviável o desenvolvimento de uma solução analítica. Visando colaborar para a maior compreensão do comportamento à flexão das estruturas com protensão não aderente e para o desenvolvimento de critérios nacionais de projeto, um modelo numérico foi implementado utilizando o elemento finito do tipo híbrido para pórticos planos. Nesta formulação, a equação para as solicitações ao longo do elemento é a função de interpolação, e as forças as variáveis interpoladas. Como esta função resulta das condições de equilíbrio, sem hipóteses arbitrárias, o método é considerado exato para forças e curvaturas. Elementos longos são possíveis, de maneira que um único elemento finito pode ser utilizado para um vão de viga ou pilar, reduzindo o esforço computacional. O caráter exato da formulação contribui para a boa modelagem dos cabos não aderentes, já que a tensão nestas armaduras depende das curvaturas de todas as seções do elemento. O modelo numérico proposto prevê a não linearidade geométrica, carregamentos cíclicos e a construção composta. Relações constitutivas já consolidadas na literatura são empregadas para os materiais. A cadeia de Maxwell é utilizada para representar o comportamento reológico do concreto e do aço de protensão, respeitando as características de envelhecimento de cada material. Inúmeros exemplos são apresentados, permitindo a comparação entre resultados numéricos e experimentais Uma análise paramétrica foi realizada, caracterizando o desempenho do modelo numérico frente a variações nos parâmetros de entrada. Discutem-se, ainda, dois critérios de ruptura para a utilização do modelo numérico no estudo do comportamento à flexão das estruturas com protensão não aderente. Os resultados indicam o bom desempenho do modelo numérico e a sua adequação para a realização de pesquisas sobre o assunto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nos ultimos anos, com a crescente popularização das redes de computadores baseadas no protocolo IP, desde pequenas redes até metropolitanas começaram a se agrupar e a fazer do que hoje se conhece como a rede mundial de computadores.Apesar dos benefícios de comunicação e troca de informação da Internet, esse feômeno global também trouxe problemas de segurança, pois a origem e estrutura dos protocolos utilizados na comunicação entre as diversas máquinas limitam as possibilidades de prevenir, identificar ou detectar possíveis ataques ou intrusos. Assim, várias ferramentas surgiram para prevenir e auxiliar na tarefa de identicar problemas de segurança nas redes como firewalls, sniffers e sistemas de detecção de intrusão. Apesar dos benefícios trazidos por essas novas tecnologias, surgiram muitas dúvidas referentes a segurança que esses recursos proporcionam. Afinal, o desenvolvimento e validação desses sistemas são procedimentos bastante complexos e, freqüentemente, esses sitemas têm se tornado o alvo primário de um atacante. O resultado disso, não raramente, é uma falsa noção de segurança devido à utilização inadequada desses mecanismos, o que é, normalmente, mais prejudicial do que a simples inexistência de segurança em uma organização, mas cujas falhas são conhecidas por seus administradores. A realização de testes para verificação da segurança de uma organização é uma atividade fundamental a fim de alcançar um ambiente operacional seguro e de verificar a correta aplicação dos requisitos de segurança de uma organização.O uso de testes permite a uma empresa verificar com precisão a postura de segurança utilizada em seus sistemas ao mesmo tempo em que permite visualizar a sua rede da mesma maneira que um atacante a visualizaria. Ao visualizar a rede como atacante, pode-se verificar com que facilidade obtém-se informações da rede, quais suas fragilidades e a dificuldade que se tem para invadí-la. Assim, obtém-se uma visão mais realista da segurança de uma organização. Além de técnicas para a avaliação, é muito importante que se possua ferramentas para a realização desses testes. Assim, é possível automotizar a realização de testes e verificar com maior facilidade a existência de problemas em uma rede. A existência de ferramentas que testem sistemas de segurnaça é extremamente importante e necessária, pois, afinal, a segurança de toda uma rede pode depender fortemente de algum desses sistemas. Este trabalho apresenta as técncias existentes para a injecção de falhas visando verificar as que são mais eficientes para a valiação de sistemas de segurança de rede. Adicionalmente são apresentadas algumas técnicas para o teste de mecanismos de segurança e algumas ferramentas existentes para a realizão de tais testes. A partir desses estudos, é apresentado um modelo de ferramenta adequando as funções de um sistema de injeção de falhas ao teste de mecanismos de segurança em rede. Um protótipo essa ferramenta foi desenvolvido e é apresentado neste trabalho. Esse protótipo permite o envio e o recebimento de pacotes da pilha TCP/IP, podendo testar problemas em protocolos e sistemas utilizados na rede. E, através da utilização de plug-ins, permite que diversos tipos de ataque mais sofisticados possam ser realizados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Recentes terremotos e furacões mostraram quão vulneráveis são as estruturas às forças da natureza. Ainda em países desenvolvidos, existe alto risco a desastres naturais. Portanto, um dos principais desafios da Engenharia é a prevenção de desastres mediante o desenvolvimento de conceitos inovadores de projeto, para proteger eficientemente as estruturas, seus moradores e o conteúdo, dos efeitos destrutivos das forças ambientais. O tradicional procedimento de projeto de construções para prevenir falhas catastróficas é baseado na combinação de resistência e capacidade de deformação (ductilidade). Solicitações de baixos níveis provocadas por ventos ou sismos são freqüentemente idealizados com cargas laterais que devem ser resistidas só pela ação elástica da estrutura, enquanto que, em eventos moderados ou severos permite-se certos níveis de dano estrutural e não estrutural, mas não, colapso da mesma. Esta filosofia proporcionou a base da maioria dos códigos de construção (fundados em métodos estáticos equivalentes) desde princípios do século, com resultados satisfatórios. No entanto, a partir do estudo das características dinâmicas das estruturas surgem novos e diversos conceitos de proteção dos sistemas estruturais que tem sido desenvolvidos e ainda estão em expansão, entre os quais pode-se citar a dissipação de energia externa. Esta nova tecnologia consiste em incorporar na estrutura, elementos projetados especificamente para dissipar energia. Com isto, logra-se reduzir as deformações nos membros estruturais primários e portanto, diminui-se a demandada de ductilidade e o possível dano estrutural, garantindo uma maior segurança e vida útil da estrutura Graças a recentes esforços e ao particular interesse da comunidade científica internacional, estudos teóricos e experimentais têm sido desenvolvidos durante a última década com resultados surpreendentes. Hoje já existem sistemas de dissipação de energia aplicados com sucesso em países como Estados Unidos, Itália, Nova Zelândia, Japão e México. Recentemente este campo está-se estendendo na América do Sul. Dentro deste contexto, considerando o beneficio econômico e o melhor desempenho estrutural que implica a incorporação desta nova tecnologia, no presente trabalho abordou-se o estudo deste tipo de sistemas de proteção estrutural orientado ao uso de amortecedores metálicos. O trabalho dividiu-se em três partes principais: a) Projetar e construir um amortecedor metálico que usa as excelentes propriedades do chumbo para dissipar energia. b) Desenvolvimento de metodologias de análise e projeto de estruturas que incorporam amortecimento suplementar a fim de melhorar o seu desempenho estrutural. c) Avaliação da eficiência de sistemas externos de dissipação de energia em estruturas. A primeira parte consistiu em projetar e construir um amortecedor metálico para logo submetê-lo a numerosos testes com diferentes níveis de amplitude de deslocamento e freqüência a fim de avaliar suas propriedades mecânicas e desempenho. Os resultados são considerados altamente satisfatórios. Na segunda parte foram desenvolvidas ferramentas computacionais para pesquisa e docência na área da mecânica estrutural mediante as quais é possível simular o comportamento linear e não linear de estruturas que incorporam amortecimento suplementar Finalmente, apresenta-se um procedimento robusto para avaliar a eficiência dos sistemas dissipadores de energia baseado numa análise da confiabilidade estrutural. Através de vários exemplos com estruturas reais e teóricas se atingem os objetivos traçados no presente trabalho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem como objetivo principal, efetuar um estudo da viabilidade da utilização do rejeito de indústrias de produtos cerâmicos (cerâmica vermelha), como substitutivo do agregado graúdo de rocha, na produção de concreto com características estruturais. O rejeito foi coletado em quatro diferentes indústrias, localizadas no município de Gravataí, região metropolitana da Grande Porto Alegre-RS, sendo posteriormente britado, para a obtenção do agregado, objeto deste estudo. Foram analisadas as principais características do agregado produzido, distribuição granulométrica, massa unitária, massa específica e absorção de água. A seguir, foi feito um estudo para estabelecer o teor de argamassa a ser utilizado nas misturas, sendo efetuado também uma avaliação da resistência à compressão em função do teor de argamassa. Uma vez fixado o teor de argamassa, foram feitos ensaios a fim de estabelecer a correlação da resistência à compressão, com a relação água/cimento, gerando, desta forma, as chamadas curvas de Abrams, vindo a possibilitar o traçado dos gráficos de dosagem. O estudo baseou-se em determinações experimentais da resistência à compressão, da resistência à tração por compressão diametral, absorção de água, o desgaste e o módulo de deformação estática, utilizando-se em referência de comparação um concreto convencional, produzido com brita basáltica. Todas as misturas foram confeccionadas com cimento Portland pozolânico (tipo IV) classe 32, areia natural de rio e água potável. Os resultados obtidos mostraram ser tecnicamente viável, o emprego do rejeito cerâmico, como agregado graúdo, na produção de concreto.