97 resultados para Laboratórios experimentais


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os sistemas de monitorização de estruturas fornecem diversas vantagens, não só no que diz respeito à durabilidade da obra, ao aumento da segurança e do conhecimento relativamente ao comportamento das estruturas ao longo do tempo, à otimização do aspeto estrutural, bem como aos aspetos económicos do processo de construção e manutenção. A monitorização deve realizar-se durante a fase de construção e/ou de exploração da obra para permitir o registo integral do seu comportamento no meio externo. Deve efetuar-se de forma contínua e automática, executando intervenções de rotina para que se possa detetar precocemente sinais de alterações, respetivamente à segurança, integridade e desempenho funcional. Assim se poderá manter a estrutura dentro de parâmetros aceitáveis de segurança. Assim, na presente dissertação será concebido um demonstrador experimental, para ser estudado em laboratório, no qual será implementado um sistema de monitorização contínuo e automático. Sobre este demonstrador será feita uma análise de diferentes grandezas em medição, tais como: deslocamentos, extensões, temperatura, rotações e acelerações. Com carácter inovador, pretende-se ainda incluir neste modelo em sintonia de medição de coordenadas GNSS com o qual se torna possível medir deslocamentos absolutos. Os resultados experimentais alcançados serão analisados e comparados com modelos numéricos. Conferem-se os resultados experimentais de natureza estática e dinâmica, com os resultados numéricos de dois modelos de elementos finitos: um de barras e outro de casca. Realizaram-se diferentes abordagens tendo em conta as características identificadas por via experimental e calculadas nos modelos numéricos para melhor ajuste e calibração dos modelos numéricos Por fim, recorre-se a algoritmos de processamento e tratamento do respetivo sinal com aplicação de filtros, que revelam melhorar com rigor o sinal, de forma a potenciar as técnicas de fusão multisensor. Pretende-se integrar o sinal GNSS com os demais sensores presentes no sistema de monitorização. As técnicas de fusão multisensor visam melhor o desempenho deste potencial sistema de medição, demonstrando as suas valências no domínio da monitorização estrutural.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Delay Tolerant Network (DTN) é uma arquitetura de redes que procura resolver os problemas associados à conetividade intermitente de sistemas e possibilita a existência de comunicações em ambientes onde o conjunto de protocolos tradicionais TCP/IP não funciona. A arquitetura DTN é adequada a cenários com uma topologia de rede dinâmica, densidade de nós reduzida, conetividade intermitente e de curta duração entre os nós, e em que as aplicações são tolerantes ao atraso. Nesta dissertação é apresentada uma solução de baixo custo recorrendo ao conceito DTN que permite a utilizadores de embarcações utilizarem o serviço de correio eletrónico no mar. A solução estende o sistema de correio eletrónico ao cenário marítimo recorrendo a estações na costa, comunicação sem fios entre embarcações e entre estas e a estações na costa, e à capacidade das embarcações funcionarem como meios de transporte de dados. Para proceder à validação da proposta apresentada, foi implementado um protótipo com o sistema de correio eletrónico adaptado ao cenário marítimo. O protótipo é constituído por vários nós, configurados de forma a assumir o papel de embarcações, estação da costa e um servidor de e-mail presente na Internet. Os resultados dos testes experimentais realizados em ambiente controlado mostram que os objetivos do trabalho foram alcançados. O serviço de e-mail assente sobre a arquitetura DTN e adaptado ao cenário de comunicações marítimo foi testado em diferentes contextos, e em todos eles, as experiências tiveram resultados positivos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As Redes Sem Fios Enterradas (Wireless Underground Networks - WUN) são formadas por nós que comunicam entre si através de ligações sem fios e têm como meio de propagação o solo. Os sistemas de localização mais utilizados atualmente têm desvantagens ao nível da precisão e o custo. Nesta tese é proposta uma solução de localização de precisão que recorre à utilização de redes sem fios enterradas e um algoritmo de posicionamento baseados em Wi-Fi. O objetivo é estimar a localização de objetos, utilizando dispositivos Wi-Fi de baixo custo. Os resultados experimentais obtidos demonstram que o erro de localização é inferior a 0,40 m, e que esta solução é viável para, por exemplo, localizar jogadores num campo de futebol ou localizar um objeto num campo agrícola.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os componentes obtidos através da conformação plástica de chapas têm uma grande importância, tanto na etapa de concepção do produto como na etapa de produção na indústria automóvel. Isto comprova-se pelo facto de, em média, cada automóvel integrar cerca de 500 componentes estampados para construir o chassis e a carroçaria [Alves 2003]. Deste total de componentes, 50 são de grandes dimensões (portas, tejadilho, painéis inferior e laterais, entre outros) e necessitam, em média, de cinco ferramentas para o seu fabrico, sendo o custo estimado para cada ferramenta de 230 000 € [Col 2000, Alves 2003]. Para além da indústria automóvel, a conformação plástica de chapas metálicas é um processo tecnológico presente nas indústrias relativas à aeroespacial, petrolífera, decoração, alimentar, entre outras. Do ponto de vista do enquadramento económico, cerca de 20% do custo total de um automóvel novo é devido à incorporação de componentes metálicos estampados. [Alves 2003]. A pressão do “Mercado Global” faz com que os custos relativos à matéria-prima, energia e mão-de-obra sejam uma constante em termos de redução do seu impacte no orçamento das empresas fornecedoras destes produtos. É neste contexto que surge a necessidade da realização deste estudo de Benchmark de Softwares, tornando-se bastante importante, quer ao nível da competitividade industrial, quer ao nível da inovação para novos produtos. A análise por elementos finitos desempenha um papel primordial no tryout virtual e otimização das ferramentas e processos de conformação plástica. Os objetivos principais deste estudo de simulação numérica são a identificação e comparação dos resultados obtidos pelo AUTOFORM e pelo PAMSTAMP, para cada uma das variáveis identificadas como as mais influentes na robustez dos processos de estampagem de chapa metálica. Estas variáveis identificadas são: consumo de material (Draw-in) após conformação; forças de conformação; valores de variação de espessura e dos valores de extensão e resultados de Springback. Os resultados obtidos são comparados com os resultados experimentais e, desta forma, avalia-se a capacidade inovadora e a eficácia de cada um dos softwares, obtendo-se assim, uma orientação mais real para o software mais indicado aos objetivos impostos pela indústria automóvel. Para este efeito, a indústria automóvel, como maior impulsionador e motor da investigação na área da simulação numérica aplicada aos processos de estampagem, tem aderido em peso ao Benchmarking. Um exemplo disto, é o que acontece nas conferências Numisheet. O Benchmark #2 da conferência Numisheet 2008 é analisado pormenorizadamente e os resultados numéricos e experimentais são comparados e apresentados. Dois materiais distintos (aço HC260LAD e liga de alumínio AC170), assim como três modelos com geometrias diferentes (com e sem freios) são apresentados neste relatório. Com vista à redução dos ciclos tentativa-erro, tem-se adotado ciclos virtuais ou numéricos e tem-se incrementado a interatividade entre as fases de concepção e projeto, num conceito muito próprio, mas cada vez mais abrangente, denominado “produção virtual”. É nesta filosofia que se insere a simulação numérica dos processos de conformação de chapa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A necessidade de utilizar métodos de ligação entre componentes de forma mais rápida, eficaz e com melhores resultados tem causado a crescente utilização das juntas adesivas, em detrimento dos métodos tradicionais de ligação. A utilização das juntas adesivas tem vindo a aumentar em diversas aplicações industriais por estas apresentarem vantagens, das quais se destacam a redução de peso, redução de concentrações de tensões e facilidade de fabrico. No entanto, uma das limitações das juntas adesivas é a dificuldade em prever a resistência da junta após fabrico e durante a sua vida útil devido à presença de defeitos no adesivo. Os defeitos são normalmente gerados pela preparação inadequada das juntas ou degradação do adesivo devido ao ambiente (por exemplo, humidade), reduzindo a qualidade da ligação e influenciando a resistência da junta. Neste trabalho é apresentado um estudo experimental e numérico de juntas de sobreposição simples (JSS) com a inclusão de defeitos centrados na camada de adesivo para comprimentos de sobreposição (LO) diferentes. Os adesivos utilizados foram o Araldite® AV138, apresentado como sendo frágil, e o adesivo Sikaforce® 7752, intitulado como adesivo dúctil. A parte experimental consistiu no ensaio à tração das diferentes JSS permitindo a obtenção das curvas força-deslocamento (P-δ). A análise numérica por modelos de dano coesivo (MDC) foi realizada para analisar as tensões de arrancamento ((σy) e as tensões de corte (τxy) na camada adesiva, para estudar a variável de dano do MDC durante o processo de rotura e para avaliar a capacidade dos MDC na previsão da resistência da junta. Constatou-se um efeito significativo dos defeitos de diferentes dimensões na resistência das juntas, que também depende do tipo de adesivo utilizado e do valor de LO. Os modelos numéricos permitiram a descrição detalhada do comportamento das juntas e previsão de resistência, embora para o adesivo dúctil a utilização de uma lei coesiva triangular tenha provocado alguma discrepância relativamente aos resultados experimentais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho foi realizado com o apoio, e em colaboração da empresa Flexcrane, que constrói e comercializa soluções flexíveis de pontes rolantes para cargas ligeiras. Com cargas máximas de 2 toneladas estas pontes e seus caminhos de rolamento são construídas essencialmente enformados a frio. O objetivo deste trabalho é a verificação numérica e experimental das cargas que este tipo de estrutura suporta, nas suas diferentes configurações. Numa aproximação por engenharia inversa, com a realização deste trabalho, foi possível determinar a carga admissível das vigas compostas utilizadas, assim como o seu comportamento quando em carga. Para obtenção destes resultados foram realizadas simulações computacionais recorrendo ao método de elementos finitos, utilizando para isso o software Ansys Workbench e ainda ensaios experimentais que permitiram validar os resultados obtidos numericamente e consolidar o conhecimento sobre o comportamento desta solução comercial. Por ser de construção modular, são possíveis diferentes combinações para o produto final, por esta razão foram estudados numericamente diferentes configurações possíveis, com e sem reforços. Foi realizada a validação experimental para a configuração mais usual, fazendo recurso a um dispositivo para ensaio de estruturas e componentes, pertencente ao Isep. Foi ainda utilizada a técnica extensométrica para avaliar as tensões em pontos selecionados e compara-los com os obtidos numericamente. Concluiu-se pelo ótimo desempenho dos produtos Flexcrane.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Face à estagnação da tecnologia uniprocessador registada na passada década, aos principais fabricantes de microprocessadores encontraram na tecnologia multi-core a resposta `as crescentes necessidades de processamento do mercado. Durante anos, os desenvolvedores de software viram as suas aplicações acompanhar os ganhos de performance conferidos por cada nova geração de processadores sequenciais, mas `a medida que a capacidade de processamento escala em função do número de processadores, a computação sequencial tem de ser decomposta em várias partes concorrentes que possam executar em paralelo, para que possam utilizar as unidades de processamento adicionais e completar mais rapidamente. A programação paralela implica um paradigma completamente distinto da programação sequencial. Ao contrário dos computadores sequenciais tipificados no modelo de Von Neumann, a heterogeneidade de arquiteturas paralelas requer modelos de programação paralela que abstraiam os programadores dos detalhes da arquitectura e simplifiquem o desenvolvimento de aplicações concorrentes. Os modelos de programação paralela mais populares incitam os programadores a identificar instruções concorrentes na sua lógica de programação, e a especificá-las sob a forma de tarefas que possam ser atribuídas a processadores distintos para executarem em simultâneo. Estas tarefas são tipicamente lançadas durante a execução, e atribuídas aos processadores pelo motor de execução subjacente. Como os requisitos de processamento costumam ser variáveis, e não são conhecidos a priori, o mapeamento de tarefas para processadores tem de ser determinado dinamicamente, em resposta a alterações imprevisíveis dos requisitos de execução. `A medida que o volume da computação cresce, torna-se cada vez menos viável garantir as suas restrições temporais em plataformas uniprocessador. Enquanto os sistemas de tempo real se começam a adaptar ao paradigma de computação paralela, há uma crescente aposta em integrar execuções de tempo real com aplicações interativas no mesmo hardware, num mundo em que a tecnologia se torna cada vez mais pequena, leve, ubíqua, e portável. Esta integração requer soluções de escalonamento que simultaneamente garantam os requisitos temporais das tarefas de tempo real e mantenham um nível aceitável de QoS para as restantes execuções. Para tal, torna-se imperativo que as aplicações de tempo real paralelizem, de forma a minimizar os seus tempos de resposta e maximizar a utilização dos recursos de processamento. Isto introduz uma nova dimensão ao problema do escalonamento, que tem de responder de forma correcta a novos requisitos de execução imprevisíveis e rapidamente conjeturar o mapeamento de tarefas que melhor beneficie os critérios de performance do sistema. A técnica de escalonamento baseado em servidores permite reservar uma fração da capacidade de processamento para a execução de tarefas de tempo real, e assegurar que os efeitos de latência na sua execução não afectam as reservas estipuladas para outras execuções. No caso de tarefas escalonadas pelo tempo de execução máximo, ou tarefas com tempos de execução variáveis, torna-se provável que a largura de banda estipulada não seja consumida por completo. Para melhorar a utilização do sistema, os algoritmos de partilha de largura de banda (capacity-sharing) doam a capacidade não utilizada para a execução de outras tarefas, mantendo as garantias de isolamento entre servidores. Com eficiência comprovada em termos de espaço, tempo, e comunicação, o mecanismo de work-stealing tem vindo a ganhar popularidade como metodologia para o escalonamento de tarefas com paralelismo dinâmico e irregular. O algoritmo p-CSWS combina escalonamento baseado em servidores com capacity-sharing e work-stealing para cobrir as necessidades de escalonamento dos sistemas abertos de tempo real. Enquanto o escalonamento em servidores permite partilhar os recursos de processamento sem interferências a nível dos atrasos, uma nova política de work-stealing que opera sobre o mecanismo de capacity-sharing aplica uma exploração de paralelismo que melhora os tempos de resposta das aplicações e melhora a utilização do sistema. Esta tese propõe uma implementação do algoritmo p-CSWS para o Linux. Em concordância com a estrutura modular do escalonador do Linux, ´e definida uma nova classe de escalonamento que visa avaliar a aplicabilidade da heurística p-CSWS em circunstâncias reais. Ultrapassados os obstáculos intrínsecos `a programação da kernel do Linux, os extensos testes experimentais provam que o p-CSWS ´e mais do que um conceito teórico atrativo, e que a exploração heurística de paralelismo proposta pelo algoritmo beneficia os tempos de resposta das aplicações de tempo real, bem como a performance e eficiência da plataforma multiprocessador.