168 resultados para Radiologia - Controle de custo
Resumo:
Estações de microondas são alimentadas por banco de baterias que são carregados através da rede, caso estejam perto, ou de grupos geradores a diesel, quando estão localizados em zonas remotas. No Brasil existem 543 dessas estações isoladas da rede de alimentação. Turbinas eólicas acopladas a geradores de energia elétrica poderão, em alguns desses locais realizar o suprimento necessário de energia, e com isso poderão obter uma grande economia na compra e também no transporte do diesel até essas estações. Uma turbina Darrieus de 6m de diâmetro e três pás foi desenvolvida e instalada em uma dessas estações, localizada em Porto Alegre. A turbina parte através de um motor de arranque de 12 V e movimenta um gerador de indução de 3 KW, autoexcitado por capacitores. Variando o banco de capacitores podemos manter a tensão mesmo com a variação do sistema, partindo-o com uma velocidade de vento de 4 m/s e aplicando o freio quando a rotação atingir 200 rpm ou a velocidade de vento chegar a 16 m/s. Ele também realiza o chaveamento dos relés que escolhem o banco de capacitores utilizado, acionam o motor de partida e selecionam o sistema de carga de baterias.
Resumo:
Nos últimos anos, um grande esforço tem sido despendido no estudo de formas de representar documentos textuais, chamados semi-estruturados, objetivando extrair informações destes documentos com a mesma eficiência com que essas são extraídas de bancos de dados relacionais e orientados a objetos. A pesquisa, em dados semi-estruturados, tornou-se fundamental com o crescimento da Web como fonte e repositório de dados, uma vez que os métodos de pesquisa existentes, baseados em navegação e busca por palavra-chave, mostraram-se insuficientes para satisfazer as necessidades de consulta em escala cada vez maior. Com o surgimento da XML, e a tendência de se tornar a linguagem padrão na Web, fez com que a representação de informações fosse dirigida para este novo padrão, porque disponibiliza um bom intercâmbio de informações e a produção de documentos eletrônicos. Existe a necessidade de se disponibilizar os documentos e as informações na rede em formato Web, HTML ou XML. Sendo assim, consultar documentos XML representa um desafio para a comunidade de pesquisa em banco de dados, pois implica em disponibilizar os grandes volumes de dados já existentes em formato XML, surgindo a necessidade de ferramentas de consulta que sejam ao mesmo tempo, flexíveis o suficiente para compreender a heterogeneidade dos documentos e, poderosas ao ponto de extraírem informações com rapidez e correção. Este trabalho apresenta uma abordagem sobre a linguagem XML, sua importância, vantagens, principais aplicações e as linguagens de consulta para dados XML. Após, é detalhada uma aplicação para Web utilizando a tecnologia XML, baseado em Ontologias, e a sua disponibilização na Web. A aplicação desenvolvida utilizou XML e linguagens de consulta para XML e com suporte a XML, baseando-se em Ontologias, com o objetivo de permitir consultas e o armazenamento de informações referentes aos alunos concluintes de determinados cursos da Universidade da Região da Campanha - Urcamp/Bagé, colocando à disposição da Universidade uma nova ferramenta, que disponibiliza informações referentes aos cursos em questão, utilizando uma nova tecnologia, que tende a tornar-se padrão na Web.
Resumo:
Esta dissertação está inserida nos estudos relativos ao conforto ambiental, tendo como foco principal a melhoria do desempenho da edificação, causando, portanto, maior satisfação ao usuário. Este trabalho teve o objetivo de analisar a intervenção na estrutura física de uma escola do ensino fundamental, da rede pública municipal da zona urbana de Feira de Santana, Bahia, que foi feita visando melhorar o conforto ambiental da edificação adequando a estrutura física às necessidades dos usuários. Para tanto foi desenvolvido projeto de intervenção de baixo custo e aplicável em outras escolas. Os métodos aplicados para o presente estudo foram: questionários, entrevistas, observações de traços físicos e levantamentos físicos, através de medições. Os resultados obtidos com o levantamento dos dados serviram como referencial para a elaboração do projeto de intervenção. Dentre os principais resultados obtidos com a intervenção está o da melhoria do índice de satisfação dos usuários das salas de aula; 50% das pessoas encontravam-se insatisfeitas com o desconforto do ambiente. Após a intervenção o número de insatisfeitos caiu para 35%, comprovando que houve melhoria no ambiente escolar, embora as condições de conforto não estejam totalmente contempladas. Na sala da secretaria, que sofreu uma intervenção diferenciada em relação às salas de aula, o índice de pessoas insatisfeitas caiu de 40% para 22%, caracterizando o ambiente como próximo do conforto térmico. Os resultados do projeto de intervenção foram importantes, considerando-se o objetivo de dar continuidade às pesquisas relacionadas ao conforto ambiental nas escolas da rede pública municipal.
Resumo:
As cartas de controle estatístico têm sido utilizadas com sucesso no monitoramento do desempenho de processos industriais. Diversas modificações nas cartas tradicionais de Shewhart vêm sendo propostas na literatura. Tais modificações visam adaptar as cartas de controle ao monitoramento de processos com características especiais; entre elas, destacam-se as cartas de controle adaptativas. As cartas são ditas adaptativas quando pelo menos um de seus parâmetros (tamanho de amostra, intervalo de amostragem e coeficiente dos limites de controle) pode variar durante o monitoramento do processo. A determinação dos valores dos parâmetros das cartas de controle pode considerar aspectos estatísticos, econômicos ou uma combinação de ambos. Os modelos estatístico-econômicos consideram, além de indicadores de desempenho estatístico, os custos associados ao controle. A implementação de cartas adaptativas baseadas neste tipo de modelo, devido a sua complexidade, é melhor conduzida por meio de uma metodologia de planejamento. Neste trabalho, após uma revisão da literatura sobre cartas tradicionais e adaptativas, incluindo o projeto econômico das mesmas, propõe-se uma metodologia para o planejamento da implementação de cartas adaptativas de controle para monitorar processos onde cartas de controle tradicionais estão sendo utilizadas A metodologia é composta de cinco passos gerais, detalhados na dissertação, e foi elaborada a partir de um estudo de caso em uma indústria do setor automotivo, no qual se utilizou um modelo estatístico-econômico. No estudo de caso, o significado e a forma de determinação dos parâmetros do modelo econômico são detalhados. Os resultados do estudo de caso são comparados quanto aos custos operacionais para as cartas adaptativas e tradicionais de controle de processo. Os resultados obtidos indicaram ser preferível o uso de cartas adaptativas ao uso de cartas tradicionais para monitorar o processo estudado, principalmente no caso de pequenas variações na média da característica de qualidade monitorada. Embora de natureza genérica, a metodologia proposta pode ser facilmente adaptada para contemplar diferentes aplicações industriais.
Resumo:
A escolha do sistema de terminação de suínos e controle de dejetos, que melhor contemple os valores sociais atuais, implica considerar, simultaneamente, pelo menos dois aspectos disciplinarmente distintos - o econômico e o ambiental - o que eleva a complexidade da escolha. Conjuntos fuzzy, por traduzir ordenadamente a percepção expressa pela linguagem, o entendimento relevante porém impreciso da realidade, é uma ferramenta conveniente para o estudo desta situação, a respeito da qual diversos especialistas possuem apreciável conhecimento parcial. Analisa-se o custo de produção de terminadores de suínos da encosta do Vale do Caí, utilizando-se conjuntos fuzzy para identificar causas necessárias e/ou suficientes para o alcance de um baixo custo de produção. Posteriormente, é apresentado um modelo fuzzy para a combinação dos custos de produção com as percepções de suinocultores e de agrônomos quanto ao impacto ambiental da suinocultura.
Resumo:
A visualização em tempo real de cenas complexas através de ambientes de rede é um dos desafios na computação gráfica. O uso da visibilidade pré-computada associada a regiões do espaço, tal como a abordagem dos Potentially Visible Sets (PVS), pode reduzir a quantidade de dados enviados através da rede. Entretanto, o PVS para algumas regiões pode ainda ser bastante complexo, e portanto uma estratégia diferente para diminuir a quantidade de informações é necessária. Neste trabalho é introduzido o conceito de Smart Visible Set (SVS), que corresponde a uma partição das informações contidas no PVS segundo o ângulo de visão do observador e as distâncias entre as regiões. Dessa forma, o conceito de “visível” ou de “não-visível” encontrado nos PVS é estendido. A informação referente ao conjunto “visível” é ampliada para “dentro do campo de visão” ou “fora do campo de visão” e “longe” ou “perto”. Desta forma a informação referente ao conjunto “visível” é subdividida, permitindo um maior controle sobre cortes ou ajustes nos dados que devem ser feitos para adequar a quantidade de dados a ser transmitida aos limites impostos pela rede. O armazenamento dos SVS como matrizes de bits permite ainda uma interação entre diferentes SVS. Outros SVS podem ser adicionados ou subtraídos entre si com um custo computacional muito pequeno permitindo uma rápida alteração no resultado final. Transmitir apenas a informação dentro de campo de visão do usuário ou não transmitir a informação muito distante são exemplos dos tipos de ajustes que podem ser realizados para se diminuir a quantidade de informações enviadas. Como o cálculo do SVS depende da existência de informação de visibilidade entre regiões foi implementado o algoritmo conhecido como “Dual Ray Space”, que por sua vez depende do particionamento da cena em regiões. Para o particionamento da cena em uma BSP-Tree, foi modificada a aplicação QBSP3. Depois de calculada, a visibilidade é particionada em diferentes conjuntos através da aplicação SVS. Finalmente, diferentes tipos de SVS puderam ser testados em uma aplicação de navegação por um cenário 3D chamada BSPViewer. Essa aplicação também permite comparações entre diferentes tipos de SVS e PVS. Os resultados obtidos apontam o SVS como uma forma de redução da quantidade de polígonos que devem ser renderizados em uma cena, diminuindo a quantidade de informação que deve ser enviada aos usuários. O SVS particionado pela distância entre as regiões permite um corte rápido na informação muito distante do usuário. Outra vantagem do uso dos SVS é que pode ser realizado um ordenamento das informações segundo sua importância para o usuário, desde que uma métrica de importância visual tenha sido definida previamente.
Resumo:
Introdução: a obtenção de um bom controle metabólico é essencial para a prevenção das complicações crônicas do Diabetes Melito (DM). O tratamento é complexo e depende da implementação efetiva das diferentes estratégias terapêuticas disponíveis. Para que isso seja possível, é necessário que o paciente entenda os princípios terapêuticos e consiga executá-los. A precária educação em diabetes é percebida como um dos obstáculos para o alcance das metas terapêuticas. Objetivo: analisar, os fatores associados ao controle metabólico, em pacientes com DM tipo 2 (DM2) não usuários de insulina. Métodos: foi realizado um estudo transversal em pacientes com DM2 não usuários de insulina, selecionados ao acaso entre aqueles que consultavam nos ambulatórios de Medicina Interna, Endocrinologia e Enfermagem do Hospital de Clínicas de Porto Alegre. Os pacientes foram submetidos à avaliação clínica, laboratorial e responderam um questionário que incluía o tipo de tratamento realizado para DM, outros medicamentos e co-morbidades, pesquisa de complicações em ano prévio e avaliação do conhecimento sobre DM. Os pacientes foram classificados em dois grupos, com bom ou mau controle glicêmico, de acordo com o valor da glico-hemoglobina de 1 ponto % acima do limite superior do método utilizado. As comparações entre variáveis contínuas, com distribuição normal, foram analisadas pelo teste t de Student para amostras não-pareadas e para as variáveis de distribuição assimétrica ou com variância heterogênea o teste U de Mann-Whitney. A comparação entre percentagem foi feita pelo teste de qui-quadrado ou exato de Fisher. Foi realizada uma análise logística múltipla para identificar os fatores mais relevantes associados ao controle metabólico (variável dependente). As variáveis independentes com um nível de significância de P < 0,1 na análise bivariada, foram incluídas no modelo. Resultados: foram avaliados 143 pacientes com DM2, idade de 59,3 ± 10,1 anos, duração conhecida do DM 7,5 ± 6,3 anos, índice de massa corporal (IMC) de 29,7 ± 5,2 kg/m².Destes, 94 pacientes (65,73%) apresentavam bom controle glicêmico. Os pacientes com mau controle glicêmico usavam mais anti-hiperglicemiantes orais como monoterapia (OR = 9,37; IC = 2,60-33,81; P=0,004) ou associados (OR = 31,08; IC = 7,42-130,15; P < 0,001). Da mesma maneira, não fizeram dieta em dias de festa (OR = 3,29; IC = 1,51-7,16; P = 0,012). A inclusão do conhecimento sobre diabetes não foi diferente entre os pacientes com bom ou mau controle glicêmico (OR = 1,08; IC = 0,97 - 1,21; P = 0,219). A análise multivariada demonstrou que a consulta com a enfermeira educadora (OR = 0,24; IC = 0,108-0,534; P = 0,003), com o endocrinologista (OR = 0,15 ; IC = 0,063-0,373; P = 0,001) e o uso de hipolipemiantes (OR = 0,10; IC = 0,016 - 0,72; P = 0,054) foram associados ao bom controle glicêmico, ajustados para a não realização de dieta em festas, uso de anti-hiperglicemiantes orais e conhecimento sobre diabetes. Conclusão: o controle metabólico em pacientes DM2 é influenciado pelas atividades de educação com enfermeira e endocrinologista. O tratamento do DM2 deve incluir atividades de educação de forma sistemática.
Resumo:
Resumo não disponível.
Resumo:
Esta tese teve como objetivos investigar: (1) as mudanças relacionadas à idade no controle de força e torque isométrico em crianças de diferentes idades em três tarefas manipulativas distintas, e (2) as diferenças no controle de força e torque isométrico, assim como nas respostas neuromusculares, entre crianças com e sem DCD de idade relacionadas em três tarefas manipulativas distintas. Neste sentido, foi realizado um ensaio teórico sobre a criança com Desordem Coordenativa Desenvolvimental (DCD), além de dois estudos experimentais que têm em comum a análise da estrutura da resposta do sistema motor em relação à performance das crianças com e sem DCD, em três tarefas manipulativas distintas de controle de força e torque isométrico, contínuo e constante. No primeiro estudo, foram investigadas as mudanças desenvolvimentais no controle motor usando um delineamento transversal de pesquisa com crianças de 7, 9 e 11 anos de idade, as quais foram incentivadas a manter o controle de força e torque durante vinte segundos nas tarefas de pressão digital, preensão digital em pinça e torque em preensão digital. Os resultados demonstraram que a performance melhorou com o avanço da idade, devido à capacidade do sistema sensório-motor apresentar uma resposta mais irregular e com um perfil de freqüências mais distribuídas. No segundo estudo, o controle de força e torque entre crianças com e sem DCD, com nove anos de idade, foram investigadas. Os participantes realizaram as mesmas tarefas do estudo desenvolvimental e, além disso, respostas neuromusculares foram mapeadas Os resultados não revelaram uma variabilidade maior e irregularidade menor no grupo com DCD nas tarefas de pressão digital e preensão digital em pinça. No entanto, na tarefa de controle de torque em preensão digital, foi identificada uma maior variabilidade e menor irregularidade na resposta motora do grupo com DCD. Os resultados não revelaram uma variabilidade maior e irregularidade menor no grupo com DCD nas tarefas de pressão digital e preensão digital em pinça. No entanto, na tarefa de controle de torque em preensão digital, foi identificada uma maior variabilidade e menor irregularidade na resposta motora do grupo com DCD. Os resultados da análise das respostas neuromusculares sugerem o uso de estratégias distintas entre os grupos, todavia, tais achados não foram conclusivos.
Resumo:
O carrapato Boophilus microplus é um dos mais importantes ectoparasitas dos rebanhos bovinos, estando em todas as áreas tropicais e subtropicais entre o paralelo 32 °N e 32 °S, abrangendo regiões que se dedicam à pecuária na América, África, Ásia e Oceania. O controle do carrapato B. microplus é realizado principalmente com o uso de acaricidas, entretanto devido a crescente preocupação com os problemas criados pela poluição química do ambiente, ao alto custo e toxicidade das drogas e ao aparecimento de carrapatos resistentes aos acaricidas, alternativas para o controle do B. microplus devem ser encontradas. A sobrevivência dos carrapatos depende grandemente da sua capacidade de evadir o sistema imunológico dos hospedeiros, portanto antígenos da glândula salivar poderiam ser alvos para intervenção imunoprofilática. Neste trabalho foram isolados cDNAs não previamente descritos correspondentes a antígenos presentes na glândula salivar. cDNAs que codificam para proteínas similares a paramiosina e calreticulina foram seqüenciados, expressos em Escherichia coli e as proteínas recombinantes purificadas, tendo sido produzidos soros policlonais contra as proteínas recombinantes em coelhos. As seqüências foram caracterizadas e alinhamentos múltiplos com outras seqüências foram determinados. O gene da calreticulina mostrou ser expresso em todos os estágios e tecidos testados, tanto em experimentos de RT-PCR quanto de Western blot, tendo sido demonstrado também a sua secreção pela saliva. Análise filogenética indica o agrupamento do gene de B. microplus com seqüências de outros artrópodos. Soros de bovinos infestados não reconhecem a calreticulina recombinante, apesar dela ser reconhecida pelo soro de cães infestados pelo carrapato Rhippicephalus sanguineus. A paramiosina mostrou-se, em ensaios de Western blot, também estar presente em todos os estágios testados, porém não na saliva. A paramiosina recombinante foi capaz de ligar colágeno e IgGs. Ambas as proteínas correspondem a proteínas multi-funcionais possivelmente envolvidas na imunomodulação do hospedeiro, tendo sido sugeridas como imunógenos protetores contra outros parasitas.
Resumo:
Baseado na tecnologia de interligação de redes, este trabalho apresenta uma proposta de conexão de dois sistemas com processamento próprio com o intuito de troca de informações, utilizando a pilha de protocolos TCP/IP. Este sistema será empregado em ambientes de controle industrial, permitindo o envio de informações do servidor de dados para o cliente. Os dados são constituídos de leituras feitas em equipamentos de campo, apresentando ao cliente remoto, medições dos mais diversos tipos. Por outro lado, o cliente poderá enviar comandos aos equipamentos de campo visando o telecontrole. Como ponto de partida para a elaboração do trabalho prático, foi utilizado o ambiente de controle do sistema de potência da companhia energética do estado do Rio Grande do Sul (CEEE). Um microcomputador com um browser acessa, através de uma rede local, os equipamentos controlados, que poderão ser qualquer tipo de equipamento de campo empregado em subestações de energia elétrica, como disjuntores, transformadores ou chaves. Para permitir o acesso remoto de tais equipamentos, foi elaborado um servidor de dados constituído de um controlador de rede do tipo Ethernet e um microcontrolador de aplicação específica que se encarrega do processamento da pilha de protocolos. O controlador Ethernet utilizado é um circuito integrado dedicado comercial, que executa o tratamento dos sinais de nível físico e de enlace de dados conforme o padrão IEEE 802.2. O processador TCP/IP, enfoque principal deste trabalho, foi elaborado através da linguagem de programação C, e a seguir traduzido para o Java, que é o ponto de partida para a ferramenta SASHIMI, de geração da descrição em VHDL do microcontrolador de aplicação específica utilizado. O processador TCP/IP encarrega-se da aquisição de dados do equipamento de campo, do processamento da pilha de protocolos TCP/IP, e do gerenciamento do controlador Ethernet. A partir desta descrição VHDL, foi sintetizado o hardware do microcontrolador em um FPGA, que juntamente com o software aplicativo, também fornecido pela ferramenta utilizada, desempenha o papel de processador TCP/IP para o sistema proposto. Neste ambiente, então, o cliente localizado no centro de operação, acessa através de um browser o equipamento de campo, visando obter suas medições, bem como enviar comandos, destacando o aspecto bidirecional para a troca de dados e a facilidade de conexão de dois sistemas heterogêneos. Este sistema pretende apresentar baixo custo de aquisição e de instalação, facilidade de interconexão local ou remota e transparência ao usuário final.
Resumo:
A crescente urbanização observada nas últimas décadas tem sido acompanhada por problemas relacionados a quase todos aspectos da infra-estrutura urbana. No que se refere à drenagem pluvial, a situação não é diferente. A impermeabilização gerada pelo processo de urbanização faz com que os hidrogramas se tornem progressivamente mais críticos, com maiores volumes escoados, maiores vazões de pico e menores tempos de escoamento. Agravando esta situação, o sistema tradicional de drenagem, baseado na máxima “pegar e largar depressa”, busca a eliminação da água, o mais rápido possível, através de galerias, condutos enterrados e canalizações, significando, muitas vezes, a simples transferência da cheia para as seções de jusante. A solução clássica para o problema das cheias baseiase na ampliação do sistema e/ou aumento da eficiência das redes, com custos geralmente elevados. Este trabalho apresenta um estudo experimental efetuado em trincheiras de infiltração, dentro de uma filosofia compensatória dos efeitos da urbanização. Esses dispositivos se inserem dentro de um conceito ambiental da drenagem urbana, onde se busca não mais a eliminação da água o mais rapidamente possível, mas sua valorização dentro do espaço urbano, através de dispositivos bem integrados e, preferencialmente, multifuncionais. Duas trincheiras de infiltração foram instaladas e monitoradas em uma área do IPH-UFRGS. A implantação das trincheiras baseou-se na adaptação, para as condições brasileiras, de técnicas descritas na literatura, principalmente no que se refere aos métodos construtivos e materiais utilizados, assim como aos métodos e critérios de utilização e dimensionamento. Durante o período de monitoramento e análise de dados, foram avaliados e discutidos aspectos relacionados a: condições de funcionamento, tais como magnitude do evento pluviométrico e condições antecedentes de umidade do solo; eficiência dos dispositivos; ocorrência de escoamento preferencial; custos; limitações de aplicação. Aspectos relacionados ao funcionamento do dispositivo ao longo do período de monitoramento são também discutidos, buscando avaliar seu desempenho a longo prazo, apesar do curto período de observação. Adicionalmente, um modelo numérico de simulação do funcionamento quantitativo de dispositivos de infiltração foi testado (modelo de Bouwer), sendo sugeridas modificações para torná-lo mais abrangente. As duas trincheiras mostraram-se eficientes, controlando 100% do volume escoado, mesmo para eventos de período de retorno superiores aos de projeto. Verificou-se que a metodologia de projeto gera super-dimensionamento das estruturas e que as condições iniciais de umidade do solo e as características dos eventos são fatores determinantes para seu funcionamento. Durante os 33 meses de observação da trincheira I e os 6 meses da trincheira II, não houve alterações significativas do funcionamento. Os eventos monitorados na trincheira I indicam a ocorrência de escoamento preferencial. Um ensaio destrutivo reforçou esta hipótese, além de mostrar acentuado grau de colmatação da primeira camada, em função do excessivo aporte de material em suspensão. Recomendações para utilização deste tipo de solução são apresentadas, visando estimular seu uso.
Resumo:
Novas centrais térmicas utilizam carvão ROM (Run of mine) na sua alimentação. Sem o processamento do minério as flutuações de qualidade do carvão serão transferidas da mina para o consumidor final. Freqüentemente, contratos entre produtor-consumidor estabelecem limites pré-estabelecidos de parâmetros geológicos e tecnológicos como enxofre, cinzas e poder calorífico. Lotes de minério com qualidade fora dos limites estabelecidos podem ser rejeitados ou penalizados. O custo elevado dessas penalizações recomenda a homogeneização do minério ROM. As principais estratégias de homogeneização são as baseadas em técnicas geoestatísticas, as pilhas de homogeneização e as usinas de beneficiamento ou metalúrgicas. A estratégia de homogeneização baseada em técnicas geoestatísticas apresenta os menores custos de implementação, no entanto o conhecimento do depósito deverá ser fundamental. Tradicionalmente, essa estratégia de homogeneização utiliza um modelo de blocos gerado por um estimador tradicional, geralmente krigagem ordinária. A estimativa dos blocos por krigagem não considera a incerteza associada ao modelo geológico, não sendo adequada para prever flutuações locais Diferente da krigagem, os métodos de simulação geoestatística têm como objetivo reproduzir a variabilidade in situ e a continuidade espacial dos dados originais. Uma vez que os teores e sua variabilidade são estimados, flutuações da qualidade do minério podem ser previstas para determinada rota de lavra e certo tamanho de lote entregue ao consumidor. Diferentes tamanhos de lote são testados a fim de obter-se o controle das flutuações da qualidade do minério. Este trabalho apresenta um procedimento para acessar a variabilidade dos teores e predizer a sua flutuabilidade para diferentes tamanhos de lote em um estudo de mineração subterrânea de carvão no sul do Brasil. Simulação geoestatística e planejamento de lavra apropriado proporcionam uma solução para o problema de homogeneização de minérios.
Resumo:
Recentes terremotos e furacões mostraram quão vulneráveis são as estruturas às forças da natureza. Ainda em países desenvolvidos, existe alto risco a desastres naturais. Portanto, um dos principais desafios da Engenharia é a prevenção de desastres mediante o desenvolvimento de conceitos inovadores de projeto, para proteger eficientemente as estruturas, seus moradores e o conteúdo, dos efeitos destrutivos das forças ambientais. O tradicional procedimento de projeto de construções para prevenir falhas catastróficas é baseado na combinação de resistência e capacidade de deformação (ductilidade). Solicitações de baixos níveis provocadas por ventos ou sismos são freqüentemente idealizados com cargas laterais que devem ser resistidas só pela ação elástica da estrutura, enquanto que, em eventos moderados ou severos permite-se certos níveis de dano estrutural e não estrutural, mas não, colapso da mesma. Esta filosofia proporcionou a base da maioria dos códigos de construção (fundados em métodos estáticos equivalentes) desde princípios do século, com resultados satisfatórios. No entanto, a partir do estudo das características dinâmicas das estruturas surgem novos e diversos conceitos de proteção dos sistemas estruturais que tem sido desenvolvidos e ainda estão em expansão, entre os quais pode-se citar a dissipação de energia externa. Esta nova tecnologia consiste em incorporar na estrutura, elementos projetados especificamente para dissipar energia. Com isto, logra-se reduzir as deformações nos membros estruturais primários e portanto, diminui-se a demandada de ductilidade e o possível dano estrutural, garantindo uma maior segurança e vida útil da estrutura Graças a recentes esforços e ao particular interesse da comunidade científica internacional, estudos teóricos e experimentais têm sido desenvolvidos durante a última década com resultados surpreendentes. Hoje já existem sistemas de dissipação de energia aplicados com sucesso em países como Estados Unidos, Itália, Nova Zelândia, Japão e México. Recentemente este campo está-se estendendo na América do Sul. Dentro deste contexto, considerando o beneficio econômico e o melhor desempenho estrutural que implica a incorporação desta nova tecnologia, no presente trabalho abordou-se o estudo deste tipo de sistemas de proteção estrutural orientado ao uso de amortecedores metálicos. O trabalho dividiu-se em três partes principais: a) Projetar e construir um amortecedor metálico que usa as excelentes propriedades do chumbo para dissipar energia. b) Desenvolvimento de metodologias de análise e projeto de estruturas que incorporam amortecimento suplementar a fim de melhorar o seu desempenho estrutural. c) Avaliação da eficiência de sistemas externos de dissipação de energia em estruturas. A primeira parte consistiu em projetar e construir um amortecedor metálico para logo submetê-lo a numerosos testes com diferentes níveis de amplitude de deslocamento e freqüência a fim de avaliar suas propriedades mecânicas e desempenho. Os resultados são considerados altamente satisfatórios. Na segunda parte foram desenvolvidas ferramentas computacionais para pesquisa e docência na área da mecânica estrutural mediante as quais é possível simular o comportamento linear e não linear de estruturas que incorporam amortecimento suplementar Finalmente, apresenta-se um procedimento robusto para avaliar a eficiência dos sistemas dissipadores de energia baseado numa análise da confiabilidade estrutural. Através de vários exemplos com estruturas reais e teóricas se atingem os objetivos traçados no presente trabalho.