120 resultados para Erva daninha - Controle
Resumo:
Todos os processos industriais são forçados a cumprir especificações de produto através da inserção de rigorosos parâmetros de controle, principaJmente devido à globalização do mercado. A tendência mundial indica que cada vez mais a cor passa a ser um parâmetro primordial para a colocação do produto no mercado. Neste contexto, uma das dificuldades da indústria mineral é a inexistência de equipamentos adequados para a medição da cor de polpas de minério durante o processamento mineral. Isto se verifica principalmente para os minerais industriais que são caracterizados, na maioria das vezes, em termos de índices de alvura e amarelamento. Este traballio tem como objetivo principal avaliar o uso do equipamento Colorcell, utilizado e desenvolvido pela empresa Renner-HerrmaIlll para a produção de tintas, na indústria de processamento mineral. Os ensaios foram realizados com um equipamento similar ao original. Para se compreender as variáveis operacionais do equipamento utilizou-se um produto à base de carbonato de cálcio natural. Após a delimitação das variáveis e definição de uma metodologia de trabalho, foram caracterizados outros minerais utilizados nas indústrias de tintas, papel e plásticos. O sistema Colorcell também foi utilizado para o controle do processamento de caulim de uma empresa da região sul do Brasil. Ensaios em laboratório permitiram o ajuste de um modelo cinético para a etapa de alvejamento da empresa. A tecnologia Colorcell indica que além dos resultados benéficos ao controle de processo é possível correlacionar a caracterização colorimétrica em polpa com o método tradicional de medição de cor.
Resumo:
A teoria financeira e pesquisas internacionais indicam que os acionistas controladores buscam decidir por estruturas de capital que não coloquem em risco a perda do controle acionário da companhia, através de ameaças de takeover, ou mesmo, pelo aumento do nível de risco de falência. Esses estudos exploram o fato de as companhias fazerem emissão de dois tipos de ação, as ações com direito ao voto, e as ações sem direito ao voto. Neste sentido, este trabalho procurou testar a existência de relação da estrutura de controle nas decisões de estrutura de capital das companhias brasileiras listadas no Bovespa – Bolsa de Valores de São Paulo em 31/12/1995, 31/12/1996, 31/12/1997, 31/12/1998, 31/12/1999 e 31/12/2000. De acordo com a análise realizada, pode-se concluir que existe uma influência estatisticamente significativa da estrutura de controle acionário sobre as decisões de estrutura de capital, bem como uma estrutura de decisão do tipo pecking order, voltada para a manutenção do controle acionário, já que a opção pela diluição do controle acionário acontece a partir da redução dos níveis de recursos próprios disponíveis e do crescimento do endividamento e do risco. Além do controle acionário e da lucratividade, o modelo utilizado no estudo testou a influência de variáveis relativas ao setor, ano e tamanho das companhias pesquisadas, como aspectos determinantes das decisões de estrutura de capital no mercado brasileiro.
Resumo:
O controle gerencial das empresas, viabilizado a partir de informações oriundas, na maior parte, da contabilidade gerencial, necessita refletir sobre o novo ambiente desafiador que empresas do mundo inteiro estão enfrentando. Informações precisas, oportunas e pertinentes sobre o desempenho da empresa e seu ambiente concorrencial são cruciais ao sucesso empresarial. Este trabalho tem como objetivo aplicar um sistema de mensuração de desempenho empresarial capaz de apoiar o controle gerencial da empresa inserida em um ambiente globalmente competitivo e desafiador. Nesse sentido, foram examinados o papel exercido pela contabilidade (financeira, de custos e gerencial) nas empresas, e as principais críticas ao controle gerencial tradicional utilizado pelas organizações, bem como foram estudados o sistema empresa, o ambiente concorrencial contemporâneo e os sistemas de mensuração de desempenho empresarial desenvolvidos por organizações e estudiosos do assunto. A proposta oferecida tem como base o Balanced Scorecard, desenvolvido por Robert Kaplan e David Norton, constituindo-se em um sistema de mensuração de desempenho que utiliza indicadores financeiros e nãofinanceiros vinculados aos objetivos estratégicos da empresa, estruturados em quatro perspectivas de avaliação: financeira, do cliente, dos processos internos e do aprendizado e crescimento. No desenvolvimento da proposta, foram identificadas as principais características e necessidades da empresa que conduziram ao estabelecimento e confirmação de sua missão e visão de futuro. Em seguida, foram estabelecidas as perspectivas onde a empresa deve ter sucesso para alcançar um desempenho que a conduza à satisfação de sua missão e visão. Nas etapas seguintes, foram definidos, para cada perspectiva, os objetivos estratégicos, fatores críticos de sucesso, indicadores de desempenho e as metas, de curto e longo prazos, consideradas imprescindíveis para a empresa monitorar, continuamente, seu curso. O projeto indica que o Balanced Scorecard, além de ser um sistema de mensuração de desempenho que permite monitorar os aspectos que conduzirão a empresa ao sucesso, também serve para estabelecer, confirmar, comunicar e implantar a estratégia empresarial.
Resumo:
Tolerância a falhas é um dos aspectos mais importantes a serem considerados no desenvolvimento de aplicações, especialmente com a participação cada vez maior de sistemas computacionais em áreas vitais da atividade humana. Dentro deste cenário, um dos fatores a serem considerados na persecução deste objetivo é o gerenciamento de atomicidade. Esta propriedade, por sua vez, apresenta duas vertentes principais: o controle de concorrência e a recuperação de estados. Considerando-se a tolerância a falhas e, particularmente, a atomicidade como requisitos com alto grau de recorrência em aplicações, verifica-se a importância de sua reutilização de forma simples e transparente e do estudo de meios de prover tal capacidade. O presente trabalho procurou pesquisar e aplicar meios de produzir soluções reutilizáveis para implementação de programas tolerantes a falhas, mais especificamente de técnicas de controle de atomicidade, utilizando vários paradigmas computacionais. Neste intuito, foram pesquisados mecanismos de introdução de atomicidade em aplicações e suas respectivas demandas, para então extrair critérios de análise dos paradigmas a serem utilizados na implementações das soluções. Buscou-se suporte nestes paradigmas às demandas previamente pesquisadas nos mecanismos de gerenciamento de atomicidade e procurou-se chegar a soluções reutilizáveis mantendo simplicidade de uso, possibilidade de alteração dinâmica, transparência, adaptabilidade e velocidade de desenvolvimento. Devido à existência de uma grande diversidade de situações que requerem diferentes implementações de atomicidade, alguns cenários típicos foram selecionados para aplicação e avaliação das técnicas aqui sugeridas, procurando abranger o maior número possível de possibilidades. Desta maneira, este trabalho comparou situações opostas quanto à concorrência pelos dados, implementando cenários onde ocorrem tanto acesso cooperativo quanto competitivo aos dados. Dentro de cada um dos cenários estudados, buscaram-se situações propícias ao emprego das características dos paradigmas e analisou-se o resultado de sua aplicação quanto aos critérios definidos anteriormente. Várias soluções foram analisadas e comparadas. Além dos mecanismos de gerenciamento de atomicidade, também foram estudados vários paradigmas que pudessem ser empregados na implementação de soluções com alto grau de reutilização e adaptabilidade. As análises e sugestões posteriores às implementações serviram como substrato para conclusões e sugestões sobre a melhor maneira de empregar tais soluções nos cenários atômicos estudados. Com isso, foi possível relacionar características e capacidades de cada paradigma com a melhor situação de demanda de atomicidade na qual os mesmos são aplicáveis, moldando uma linha de soluções que favoreçam sua reutilização. Um dos objetivos mais importantes do trabalho foi, entretanto, observar o funcionamento conjunto destes paradigmas, estudando como os mesmos podem atuar de forma simbiótica e de que forma os conceitos de um paradigma podem complementar os de outro.
Resumo:
A literatura disponível na área de controle de processos químicos tem dado pouca atenção para o problema da seleção de estruturas de controle, entretanto a correta escolha das variáveis controladas e manipuladas, assim como os seus pareamentos, é tão ou mesmo mais importante que o projeto do controlador propriamente dito, pois esta etapa define o desempenho alcançável para o sistema em malha fechada. Esta dissertação explora vários aspectos genéricos do controle de processos com o objetivo de introduzir os principais pontos da metodologia RPN, um método sistemático que, através de índices baseados em sólidos fundamentos matemáticos, permite avaliar o projeto de controle como um todo. O índice RPN (Número de Desempenho Robusto) indica quão potencialmente difícil é, para um dado sistema, alcançar o desempenho desejado. O produto final desse trabalho é o RPN-Toolbox, a implementação das rotinas da metodologia RPN em ambiente MATLAB® com o intuito de torná-la acessível a qualquer profissional da área de controle de processos. O RPN-Toolbox permite que todas as rotinas necessárias para proceder a análise RPN de controlabilidade sejam executadas através de comandos de linha ou utilizando uma interface gráfica. Além do desenvolvimento das rotinas para o toolbox, foi realizado um estudo do problema de controle denominado processo Tennessee-Eastman. Foi desenvolvida uma estrutura de controle para a unidade e esta foi comparada, de modo sistemático, através da metodologia RPN e de simulações dinâmicas, com outras soluções apresentadas na literatura. A partir do índice concluiu-se que a estrutura proposta é tão boa quanto a melhor das estruturas da literatura e a partir de simulações dinâmicas do processo frente a diversos distúrbios, a estrutura proposta foi a que apresentou melhores resultados.
Resumo:
Estações de microondas são alimentadas por banco de baterias que são carregados através da rede, caso estejam perto, ou de grupos geradores a diesel, quando estão localizados em zonas remotas. No Brasil existem 543 dessas estações isoladas da rede de alimentação. Turbinas eólicas acopladas a geradores de energia elétrica poderão, em alguns desses locais realizar o suprimento necessário de energia, e com isso poderão obter uma grande economia na compra e também no transporte do diesel até essas estações. Uma turbina Darrieus de 6m de diâmetro e três pás foi desenvolvida e instalada em uma dessas estações, localizada em Porto Alegre. A turbina parte através de um motor de arranque de 12 V e movimenta um gerador de indução de 3 KW, autoexcitado por capacitores. Variando o banco de capacitores podemos manter a tensão mesmo com a variação do sistema, partindo-o com uma velocidade de vento de 4 m/s e aplicando o freio quando a rotação atingir 200 rpm ou a velocidade de vento chegar a 16 m/s. Ele também realiza o chaveamento dos relés que escolhem o banco de capacitores utilizado, acionam o motor de partida e selecionam o sistema de carga de baterias.
Resumo:
Nos últimos anos, um grande esforço tem sido despendido no estudo de formas de representar documentos textuais, chamados semi-estruturados, objetivando extrair informações destes documentos com a mesma eficiência com que essas são extraídas de bancos de dados relacionais e orientados a objetos. A pesquisa, em dados semi-estruturados, tornou-se fundamental com o crescimento da Web como fonte e repositório de dados, uma vez que os métodos de pesquisa existentes, baseados em navegação e busca por palavra-chave, mostraram-se insuficientes para satisfazer as necessidades de consulta em escala cada vez maior. Com o surgimento da XML, e a tendência de se tornar a linguagem padrão na Web, fez com que a representação de informações fosse dirigida para este novo padrão, porque disponibiliza um bom intercâmbio de informações e a produção de documentos eletrônicos. Existe a necessidade de se disponibilizar os documentos e as informações na rede em formato Web, HTML ou XML. Sendo assim, consultar documentos XML representa um desafio para a comunidade de pesquisa em banco de dados, pois implica em disponibilizar os grandes volumes de dados já existentes em formato XML, surgindo a necessidade de ferramentas de consulta que sejam ao mesmo tempo, flexíveis o suficiente para compreender a heterogeneidade dos documentos e, poderosas ao ponto de extraírem informações com rapidez e correção. Este trabalho apresenta uma abordagem sobre a linguagem XML, sua importância, vantagens, principais aplicações e as linguagens de consulta para dados XML. Após, é detalhada uma aplicação para Web utilizando a tecnologia XML, baseado em Ontologias, e a sua disponibilização na Web. A aplicação desenvolvida utilizou XML e linguagens de consulta para XML e com suporte a XML, baseando-se em Ontologias, com o objetivo de permitir consultas e o armazenamento de informações referentes aos alunos concluintes de determinados cursos da Universidade da Região da Campanha - Urcamp/Bagé, colocando à disposição da Universidade uma nova ferramenta, que disponibiliza informações referentes aos cursos em questão, utilizando uma nova tecnologia, que tende a tornar-se padrão na Web.
Resumo:
As cartas de controle estatístico têm sido utilizadas com sucesso no monitoramento do desempenho de processos industriais. Diversas modificações nas cartas tradicionais de Shewhart vêm sendo propostas na literatura. Tais modificações visam adaptar as cartas de controle ao monitoramento de processos com características especiais; entre elas, destacam-se as cartas de controle adaptativas. As cartas são ditas adaptativas quando pelo menos um de seus parâmetros (tamanho de amostra, intervalo de amostragem e coeficiente dos limites de controle) pode variar durante o monitoramento do processo. A determinação dos valores dos parâmetros das cartas de controle pode considerar aspectos estatísticos, econômicos ou uma combinação de ambos. Os modelos estatístico-econômicos consideram, além de indicadores de desempenho estatístico, os custos associados ao controle. A implementação de cartas adaptativas baseadas neste tipo de modelo, devido a sua complexidade, é melhor conduzida por meio de uma metodologia de planejamento. Neste trabalho, após uma revisão da literatura sobre cartas tradicionais e adaptativas, incluindo o projeto econômico das mesmas, propõe-se uma metodologia para o planejamento da implementação de cartas adaptativas de controle para monitorar processos onde cartas de controle tradicionais estão sendo utilizadas A metodologia é composta de cinco passos gerais, detalhados na dissertação, e foi elaborada a partir de um estudo de caso em uma indústria do setor automotivo, no qual se utilizou um modelo estatístico-econômico. No estudo de caso, o significado e a forma de determinação dos parâmetros do modelo econômico são detalhados. Os resultados do estudo de caso são comparados quanto aos custos operacionais para as cartas adaptativas e tradicionais de controle de processo. Os resultados obtidos indicaram ser preferível o uso de cartas adaptativas ao uso de cartas tradicionais para monitorar o processo estudado, principalmente no caso de pequenas variações na média da característica de qualidade monitorada. Embora de natureza genérica, a metodologia proposta pode ser facilmente adaptada para contemplar diferentes aplicações industriais.
Resumo:
Introdução: a obtenção de um bom controle metabólico é essencial para a prevenção das complicações crônicas do Diabetes Melito (DM). O tratamento é complexo e depende da implementação efetiva das diferentes estratégias terapêuticas disponíveis. Para que isso seja possível, é necessário que o paciente entenda os princípios terapêuticos e consiga executá-los. A precária educação em diabetes é percebida como um dos obstáculos para o alcance das metas terapêuticas. Objetivo: analisar, os fatores associados ao controle metabólico, em pacientes com DM tipo 2 (DM2) não usuários de insulina. Métodos: foi realizado um estudo transversal em pacientes com DM2 não usuários de insulina, selecionados ao acaso entre aqueles que consultavam nos ambulatórios de Medicina Interna, Endocrinologia e Enfermagem do Hospital de Clínicas de Porto Alegre. Os pacientes foram submetidos à avaliação clínica, laboratorial e responderam um questionário que incluía o tipo de tratamento realizado para DM, outros medicamentos e co-morbidades, pesquisa de complicações em ano prévio e avaliação do conhecimento sobre DM. Os pacientes foram classificados em dois grupos, com bom ou mau controle glicêmico, de acordo com o valor da glico-hemoglobina de 1 ponto % acima do limite superior do método utilizado. As comparações entre variáveis contínuas, com distribuição normal, foram analisadas pelo teste t de Student para amostras não-pareadas e para as variáveis de distribuição assimétrica ou com variância heterogênea o teste U de Mann-Whitney. A comparação entre percentagem foi feita pelo teste de qui-quadrado ou exato de Fisher. Foi realizada uma análise logística múltipla para identificar os fatores mais relevantes associados ao controle metabólico (variável dependente). As variáveis independentes com um nível de significância de P < 0,1 na análise bivariada, foram incluídas no modelo. Resultados: foram avaliados 143 pacientes com DM2, idade de 59,3 ± 10,1 anos, duração conhecida do DM 7,5 ± 6,3 anos, índice de massa corporal (IMC) de 29,7 ± 5,2 kg/m².Destes, 94 pacientes (65,73%) apresentavam bom controle glicêmico. Os pacientes com mau controle glicêmico usavam mais anti-hiperglicemiantes orais como monoterapia (OR = 9,37; IC = 2,60-33,81; P=0,004) ou associados (OR = 31,08; IC = 7,42-130,15; P < 0,001). Da mesma maneira, não fizeram dieta em dias de festa (OR = 3,29; IC = 1,51-7,16; P = 0,012). A inclusão do conhecimento sobre diabetes não foi diferente entre os pacientes com bom ou mau controle glicêmico (OR = 1,08; IC = 0,97 - 1,21; P = 0,219). A análise multivariada demonstrou que a consulta com a enfermeira educadora (OR = 0,24; IC = 0,108-0,534; P = 0,003), com o endocrinologista (OR = 0,15 ; IC = 0,063-0,373; P = 0,001) e o uso de hipolipemiantes (OR = 0,10; IC = 0,016 - 0,72; P = 0,054) foram associados ao bom controle glicêmico, ajustados para a não realização de dieta em festas, uso de anti-hiperglicemiantes orais e conhecimento sobre diabetes. Conclusão: o controle metabólico em pacientes DM2 é influenciado pelas atividades de educação com enfermeira e endocrinologista. O tratamento do DM2 deve incluir atividades de educação de forma sistemática.
Resumo:
Resumo não disponível.
Resumo:
Esta tese teve como objetivos investigar: (1) as mudanças relacionadas à idade no controle de força e torque isométrico em crianças de diferentes idades em três tarefas manipulativas distintas, e (2) as diferenças no controle de força e torque isométrico, assim como nas respostas neuromusculares, entre crianças com e sem DCD de idade relacionadas em três tarefas manipulativas distintas. Neste sentido, foi realizado um ensaio teórico sobre a criança com Desordem Coordenativa Desenvolvimental (DCD), além de dois estudos experimentais que têm em comum a análise da estrutura da resposta do sistema motor em relação à performance das crianças com e sem DCD, em três tarefas manipulativas distintas de controle de força e torque isométrico, contínuo e constante. No primeiro estudo, foram investigadas as mudanças desenvolvimentais no controle motor usando um delineamento transversal de pesquisa com crianças de 7, 9 e 11 anos de idade, as quais foram incentivadas a manter o controle de força e torque durante vinte segundos nas tarefas de pressão digital, preensão digital em pinça e torque em preensão digital. Os resultados demonstraram que a performance melhorou com o avanço da idade, devido à capacidade do sistema sensório-motor apresentar uma resposta mais irregular e com um perfil de freqüências mais distribuídas. No segundo estudo, o controle de força e torque entre crianças com e sem DCD, com nove anos de idade, foram investigadas. Os participantes realizaram as mesmas tarefas do estudo desenvolvimental e, além disso, respostas neuromusculares foram mapeadas Os resultados não revelaram uma variabilidade maior e irregularidade menor no grupo com DCD nas tarefas de pressão digital e preensão digital em pinça. No entanto, na tarefa de controle de torque em preensão digital, foi identificada uma maior variabilidade e menor irregularidade na resposta motora do grupo com DCD. Os resultados não revelaram uma variabilidade maior e irregularidade menor no grupo com DCD nas tarefas de pressão digital e preensão digital em pinça. No entanto, na tarefa de controle de torque em preensão digital, foi identificada uma maior variabilidade e menor irregularidade na resposta motora do grupo com DCD. Os resultados da análise das respostas neuromusculares sugerem o uso de estratégias distintas entre os grupos, todavia, tais achados não foram conclusivos.
Resumo:
A crescente urbanização observada nas últimas décadas tem sido acompanhada por problemas relacionados a quase todos aspectos da infra-estrutura urbana. No que se refere à drenagem pluvial, a situação não é diferente. A impermeabilização gerada pelo processo de urbanização faz com que os hidrogramas se tornem progressivamente mais críticos, com maiores volumes escoados, maiores vazões de pico e menores tempos de escoamento. Agravando esta situação, o sistema tradicional de drenagem, baseado na máxima “pegar e largar depressa”, busca a eliminação da água, o mais rápido possível, através de galerias, condutos enterrados e canalizações, significando, muitas vezes, a simples transferência da cheia para as seções de jusante. A solução clássica para o problema das cheias baseiase na ampliação do sistema e/ou aumento da eficiência das redes, com custos geralmente elevados. Este trabalho apresenta um estudo experimental efetuado em trincheiras de infiltração, dentro de uma filosofia compensatória dos efeitos da urbanização. Esses dispositivos se inserem dentro de um conceito ambiental da drenagem urbana, onde se busca não mais a eliminação da água o mais rapidamente possível, mas sua valorização dentro do espaço urbano, através de dispositivos bem integrados e, preferencialmente, multifuncionais. Duas trincheiras de infiltração foram instaladas e monitoradas em uma área do IPH-UFRGS. A implantação das trincheiras baseou-se na adaptação, para as condições brasileiras, de técnicas descritas na literatura, principalmente no que se refere aos métodos construtivos e materiais utilizados, assim como aos métodos e critérios de utilização e dimensionamento. Durante o período de monitoramento e análise de dados, foram avaliados e discutidos aspectos relacionados a: condições de funcionamento, tais como magnitude do evento pluviométrico e condições antecedentes de umidade do solo; eficiência dos dispositivos; ocorrência de escoamento preferencial; custos; limitações de aplicação. Aspectos relacionados ao funcionamento do dispositivo ao longo do período de monitoramento são também discutidos, buscando avaliar seu desempenho a longo prazo, apesar do curto período de observação. Adicionalmente, um modelo numérico de simulação do funcionamento quantitativo de dispositivos de infiltração foi testado (modelo de Bouwer), sendo sugeridas modificações para torná-lo mais abrangente. As duas trincheiras mostraram-se eficientes, controlando 100% do volume escoado, mesmo para eventos de período de retorno superiores aos de projeto. Verificou-se que a metodologia de projeto gera super-dimensionamento das estruturas e que as condições iniciais de umidade do solo e as características dos eventos são fatores determinantes para seu funcionamento. Durante os 33 meses de observação da trincheira I e os 6 meses da trincheira II, não houve alterações significativas do funcionamento. Os eventos monitorados na trincheira I indicam a ocorrência de escoamento preferencial. Um ensaio destrutivo reforçou esta hipótese, além de mostrar acentuado grau de colmatação da primeira camada, em função do excessivo aporte de material em suspensão. Recomendações para utilização deste tipo de solução são apresentadas, visando estimular seu uso.
Resumo:
Recentes terremotos e furacões mostraram quão vulneráveis são as estruturas às forças da natureza. Ainda em países desenvolvidos, existe alto risco a desastres naturais. Portanto, um dos principais desafios da Engenharia é a prevenção de desastres mediante o desenvolvimento de conceitos inovadores de projeto, para proteger eficientemente as estruturas, seus moradores e o conteúdo, dos efeitos destrutivos das forças ambientais. O tradicional procedimento de projeto de construções para prevenir falhas catastróficas é baseado na combinação de resistência e capacidade de deformação (ductilidade). Solicitações de baixos níveis provocadas por ventos ou sismos são freqüentemente idealizados com cargas laterais que devem ser resistidas só pela ação elástica da estrutura, enquanto que, em eventos moderados ou severos permite-se certos níveis de dano estrutural e não estrutural, mas não, colapso da mesma. Esta filosofia proporcionou a base da maioria dos códigos de construção (fundados em métodos estáticos equivalentes) desde princípios do século, com resultados satisfatórios. No entanto, a partir do estudo das características dinâmicas das estruturas surgem novos e diversos conceitos de proteção dos sistemas estruturais que tem sido desenvolvidos e ainda estão em expansão, entre os quais pode-se citar a dissipação de energia externa. Esta nova tecnologia consiste em incorporar na estrutura, elementos projetados especificamente para dissipar energia. Com isto, logra-se reduzir as deformações nos membros estruturais primários e portanto, diminui-se a demandada de ductilidade e o possível dano estrutural, garantindo uma maior segurança e vida útil da estrutura Graças a recentes esforços e ao particular interesse da comunidade científica internacional, estudos teóricos e experimentais têm sido desenvolvidos durante a última década com resultados surpreendentes. Hoje já existem sistemas de dissipação de energia aplicados com sucesso em países como Estados Unidos, Itália, Nova Zelândia, Japão e México. Recentemente este campo está-se estendendo na América do Sul. Dentro deste contexto, considerando o beneficio econômico e o melhor desempenho estrutural que implica a incorporação desta nova tecnologia, no presente trabalho abordou-se o estudo deste tipo de sistemas de proteção estrutural orientado ao uso de amortecedores metálicos. O trabalho dividiu-se em três partes principais: a) Projetar e construir um amortecedor metálico que usa as excelentes propriedades do chumbo para dissipar energia. b) Desenvolvimento de metodologias de análise e projeto de estruturas que incorporam amortecimento suplementar a fim de melhorar o seu desempenho estrutural. c) Avaliação da eficiência de sistemas externos de dissipação de energia em estruturas. A primeira parte consistiu em projetar e construir um amortecedor metálico para logo submetê-lo a numerosos testes com diferentes níveis de amplitude de deslocamento e freqüência a fim de avaliar suas propriedades mecânicas e desempenho. Os resultados são considerados altamente satisfatórios. Na segunda parte foram desenvolvidas ferramentas computacionais para pesquisa e docência na área da mecânica estrutural mediante as quais é possível simular o comportamento linear e não linear de estruturas que incorporam amortecimento suplementar Finalmente, apresenta-se um procedimento robusto para avaliar a eficiência dos sistemas dissipadores de energia baseado numa análise da confiabilidade estrutural. Através de vários exemplos com estruturas reais e teóricas se atingem os objetivos traçados no presente trabalho.
Resumo:
Este trabalho realiza uma análise do potencial dos sistemas centralizados para controle de tráfego no Brasil, executando uma comparação entre as diferentes tecnologias disponíveis, e os conseqüentes resultados obtidos. Estes resultados são apresentados, através de "cases", na forma de benefícios obtidos, comparados com os custos associados para a implantação de cada sistema. As partes que compõem estes sistemas são apresentadas através de um histórico do controle de tráfego e das evoluções tecnológicas dos equipamentos e dos critérios de controle utilizados. Um resumo dos panoramas atuais, americano e brasileiro, permite uma comparação, quanto à utilização e investimentos em sistemas centralizados para controle de tráfego. Ao final do trabalho é apresentada uma proposta, adequada à realidade brasileira, para implantação de sistemas centralizados de tráfego, baseada em uma metodologia de implantação em etapas, com investimentos e benefícios crescentes, atendendo gradativamente à demanda de cada município.