39 resultados para Hard And Brittle Coating

em Instituto Politécnico do Porto, Portugal


Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper focuses on the scheduling of tasks with hard and soft real-time constraints in open and dynamic real-time systems. It starts by presenting a capacity sharing and stealing (CSS) strategy that supports the coexistence of guaranteed and non-guaranteed bandwidth servers to efficiently handle soft-tasks’ overloads by making additional capacity available from two sources: (i) reclaiming unused reserved capacity when jobs complete in less than their budgeted execution time and (ii) stealing reserved capacity from inactive non-isolated servers used to schedule best-effort jobs. CSS is then combined with the concept of bandwidth inheritance to efficiently exchange reserved bandwidth among sets of inter-dependent tasks which share resources and exhibit precedence constraints, assuming no previous information on critical sections and computation times is available. The proposed Capacity Exchange Protocol (CXP) has a better performance and a lower overhead when compared against other available solutions and introduces a novel approach to integrate precedence constraints among tasks of open real-time systems.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The single-lap joint is the most commonly used, although it endures significant bending due to the non-collinear load path, which negatively affects its load bearing capabilities. The use of material or geometric changes is widely documented in the literature to reduce this handicap, acting by reduction of peel and shear peak stresses or alterations of the failure mechanism emerging from local modifications. In this work, the effect of using different thickness adherends on the tensile strength of single-lap joints, bonded with a ductile and brittle adhesive, was numerically and experimentally evaluated. The joints were tested under tension for different combinations of adherend thickness. The effect of the adherends thickness mismatch on the stress distributions was also investigated by Finite Elements (FE), which explained the experimental results and the strength prediction of the joints. The numerical study was made by FE and Cohesive Zone Modelling (CZM), which allowed characterizing the entire fracture process. For this purpose, a FE analysis was performed in ABAQUS® considering geometric non-linearities. In the end, a detailed comparative evaluation of unbalanced joints, commonly used in engineering applications, is presented to give an understanding on how modifications in the bonded structures thickness can influence the joint performance.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The integrity of multi-component structures is usually determined by their unions. Adhesive-bonding is often used over traditional methods because of the reduction of stress concentrations, reduced weight penalty, and easy manufacturing. Commercial adhesives range from strong and brittle (e.g., Araldite® AV138) to less strong and ductile (e.g., Araldite® 2015). A new family of polyurethane adhesives combines high strength and ductility (e.g., Sikaforce® 7888). In this work, the performance of the three above-mentioned adhesives was tested in single lap joints with varying values of overlap length (LO). The experimental work carried out is accompanied by a detailed numerical analysis by finite elements, either based on cohesive zone models (CZM) or the extended finite element method (XFEM). This procedure enabled detailing the performance of these predictive techniques applied to bonded joints. Moreover, it was possible to evaluate which family of adhesives is more suited for each joint geometry. CZM revealed to be highly accurate, except for largely ductile adhesives, although this could be circumvented with a different cohesive law. XFEM is not the most suited technique for mixed-mode damage growth, but a rough prediction was achieved.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Scheduling resolution requires the intervention of highly skilled human problemsolvers. This is a very hard and challenging domain because current systems are becoming more and more complex, distributed, interconnected and subject to rapidly changing. A natural Autonomic Computing evolution in relation to Current Computing is to provide systems with Self-Managing ability with a minimum human interference. This paper addresses the resolution of complex scheduling problems using cooperative negotiation. A Multi-Agent Autonomic and Meta-heuristics based framework with self-configuring capabilities is proposed.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The main purpose of this paper is to propose a Multi-Agent Autonomic and Bio-Inspired based framework with selfmanaging capabilities to solve complex scheduling problems using cooperative negotiation. Scheduling resolution requires the intervention of highly skilled human problem-solvers. This is a very hard and challenging domain because current systems are becoming more and more complex, distributed, interconnected and subject to rapidly changing. A natural Autonomic Computing (AC) evolution in relation to Current Computing is to provide systems with Self-Managing ability with a minimum human interference.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introdução: No futebol, a entorse lateral do tornozelo (ELT) destaca-se como sendo a lesão mais prevalente. Potenciada pela variedade de chuteiras disponíveis no mercado e pela crescente utilização de relvados sintéticos, a interação entre o terreno e o calçado tem assumido elevada relevância como fator de risco para a ELT. A maior incidência de lesões na 2ª parte do jogo traduz a necessidade do estudo dessa interação durante tarefas que envolvam fadiga. Objetivo: Estudar a influência das chuteiras em variáveis preditoras do risco de ELT em relvado sintético sob duas condições: sem e com fadiga dos músculos eversores do tornozelo Métodos: Foi utilizada uma amostra de atletas saudáveis. Todos os indivíduos realizaram 3 séries de 5 saltos médio-laterais uni-podálicos, cada uma com 1 de 3 modelos de chuteiras (Turf, Hard e Firm ground) em duas condições: sem e com fadiga induzida pelo dinamómetro isocinético. Durante a tarefa, a atividade eletromiográfica do longo e curto peroniais, o valor das forças de reação do solo e o movimento do retro-pé (plano frontal), foram recolhidos e usados para calcular variáveis cinemáticas (eversão/inversão do tornozelo, o deslocamento e velocidade do centro de pressão), cinéticas (taxa de crescimento das forças de reação do solo) e neuromusculares (tempo de ativação muscular dos peroniais). Resultados: À exceção do tempo de ativação do curto peronial com o modelo Hard ground (sem fadiga vs com fadiga (p=0,050), não foram identificadas diferenças estatisticamente significativas nas variáveis preditoras de lesão, entre chuteiras, nem entre as duas condições avaliadas. Conclusão: Para o teste funcional escolhido e executado por atletas saudáveis em sintético de 3ª geração, nenhuma das chuteiras apresenta maior risco de lesão (com e sem fadiga), tendo em conta as variáveis em estudo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A geração de trajectórias de robôs em tempo real é uma tarefa muito complexa, não existindo ainda um algoritmo que a permita resolver de forma eficaz. De facto, há controladores eficientes para trajectórias previamente definidas, todavia, a adaptação a variações imprevisíveis, como sendo terrenos irregulares ou obstáculos, constitui ainda um problema em aberto na geração de trajectórias em tempo real de robôs. Neste trabalho apresentam-se modelos de geradores centrais de padrões de locomoção (CPGs), inspirados na biologia, que geram os ritmos locomotores num robô quadrúpede. Os CPGs são modelados matematicamente por sistemas acoplados de células (ou neurónios), sendo a dinâmica de cada célula dada por um sistema de equações diferenciais ordinárias não lineares. Assume-se que as trajectórias dos robôs são constituídas por esta parte rítmica e por uma parte discreta. A parte discreta pode ser embebida na parte rítmica, (a.1) como um offset ou (a.2) adicionada às expressões rítmicas, ou (b) pode ser calculada independentemente e adicionada exactamente antes do envio dos sinais para as articulações do robô. A parte discreta permite inserir no passo locomotor uma perturbação, que poderá estar associada à locomoção em terrenos irregulares ou à existência de obstáculos na trajectória do robô. Para se proceder á análise do sistema com parte discreta, será variado o parâmetro g. O parâmetro g, presente nas equações da parte discreta, representa o offset do sinal após a inclusão da parte discreta. Revê-se a teoria de bifurcação e simetria que permite a classificação das soluções periódicas produzidas pelos modelos de CPGs com passos locomotores quadrúpedes. Nas simulações numéricas, usam-se as equações de Morris-Lecar e o oscilador de Hopf como modelos da dinâmica interna de cada célula para a parte rítmica. A parte discreta é modelada por um sistema inspirado no modelo VITE. Medem-se a amplitude e a frequência de dois passos locomotores para variação do parâmetro g, no intervalo [-5;5]. Consideram-se duas formas distintas de incluir a parte discreta na parte rítmica: (a) como um (a.1) offset ou (a.2) somada nas expressões que modelam a parte rítmica, e (b) somada ao sinal da parte rítmica antes de ser enviado às articulações do robô. No caso (a.1), considerando o oscilador de Hopf como dinâmica interna das células, verifica-se que a amplitude e frequência se mantêm constantes para -5ando novamente o oscilador de Hopf, a amplitude e a frequência têm o mesmo comportamento, crescendo e diminuindo nos intervalos de g [-0.5,0.34] e [0.4,1.83], sendo nos restantes valores de g nulas. Isto traduz-se em variações na extensão do movimento e na velocidade do robô, proporcionais à amplitude e à frequência, respectivamente. Ainda com o oscilador Hopf, no caso (b), a frequência mantêm-se constante enquanto a amplitude diminui para g<0.2 e aumenta para g>0.2. A extensão do movimento varia de forma directamente proporcional à amplitude. No caso das equações de Morris-Lecar, quando a componente discreta é embebida (a.2), a amplitude e a frequência aumentam e depois diminuem para - 0.17ando se somam as duas componentes, mais uma vez a frequência mantém-se constante enquanto a amplitude diminui para g<0.5 e aumenta para g>0.5 Pode concluir-se que: (1) a melhor forma de inserção da parte discreta que menos perturbação insere no robô é a inserção como offset; (2) a inserção da parte discreta parece ser independente do sistema de equações diferenciais ordinárias que modelam a dinâmica interna de cada célula. Como trabalho futuro, é importante prosseguir o estudo das diferentes formas de inserção da parte discreta na parte rítmica do movimento, para que se possa gerar uma locomoção quadrúpede, robusta, flexível, com objectivos, em terrenos irregulares, modelada por correcções discretas aos padrões rítmicos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Um túnel é uma obra subterrânea dimensionada com o objetivo de satisfazer diversas necessidades num mundo onde o planeamento urbano e a gestão de espaços ganha cada vez mais importância. A execução de este género de obras de engenharia pode ter várias finalidades, que podem ir desde a construção/reabilitação de redes de saneamento, abastecimento de água ou gás (túneis de pequeno diâmetro) até à construção/modernização de redes pedonais, rodoviárias ou ferroviárias, galerias mineiras, tuneis para barragens, etc. (túneis de grande diâmetro). As tuneladoras são uma das ferramentas de desmonte mais utilizadas na execução de obras subterrâneas. Existem no mercado vários tipos de máquinas tuneladoras, a sua escolha e dimensionamento depende de diversos fatores que devem ser cuidadosamente analisados, nomeadamente tipo de terreno a escavar, presença ou não de água na zona de escavação, dureza e/ou abrasividade das formações a atravessar, etc. Será feita uma abordagem aos princípios de funcionamento de este tipo de equipamentos, indicando o seu campo de aplicação dentro da respetiva tecnologia de escavação onde se inserem. Finalmente será desenvolvido o caso da empreitada: “Execução da Travessia do Rio Ave, da Estação Elevatória de Vila do Conde e dos Sistemas Elevatória da Aguçadoura e da Apúlia 4 - AR 44.0.08”, onde em alternativa ao desvio provisório do Rio Ave em Vila do Conde foi projetada a execução de duas travessias no diâmetro 1200 mm, uma delas escavadas maioritariamente em terreno aluvionar brando e a outra em terreno rochoso duro e abrasivo com recurso, em ambos casos, à utilização de máquina tuneladora. Através da avaliação do desempenho do equipamento escolhido para execução de este trabalho será estudada a eficiência da utilização deste tipo de equipamento. Com o objetivo de mostrar os custos associados à execução de obras de escavação subterrânea com recurso a utilização de máquinas tuneladoras, será feita uma análise económica e comparativa relativa aos dois casos de obra apresentados.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Scheduling of constrained deadline sporadic task systems on multiprocessor platforms is an area which has received much attention in the recent past. It is widely believed that finding an optimal scheduler is hard, and therefore most studies have focused on developing algorithms with good processor utilization bounds. These algorithms can be broadly classified into two categories: partitioned scheduling in which tasks are statically assigned to individual processors, and global scheduling in which each task is allowed to execute on any processor in the platform. In this paper we consider a third, more general, approach called cluster-based scheduling. In this approach each task is statically assigned to a processor cluster, tasks in each cluster are globally scheduled among themselves, and clusters in turn are scheduled on the multiprocessor platform. We develop techniques to support such cluster-based scheduling algorithms, and also consider properties that minimize total processor utilization of individual clusters. In the last part of this paper, we develop new virtual cluster-based scheduling algorithms. For implicit deadline sporadic task systems, we develop an optimal scheduling algorithm that is neither Pfair nor ERfair. We also show that the processor utilization bound of us-edf{m/(2m−1)} can be improved by using virtual clustering. Since neither partitioned nor global strategies dominate over the other, cluster-based scheduling is a natural direction for research towards achieving improved processor utilization bounds.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dissertação apresentada ao Instituto Superior de Contabilidade para a obtenção do Grau de Mestre em Auditoria Orientador: Mestre Helena Maria Santos de Oliveira

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The new generations of SRAM-based FPGA (field programmable gate array) devices are the preferred choice for the implementation of reconfigurable computing platforms intended to accelerate processing in real-time systems. However, FPGA's vulnerability to hard and soft errors is a major weakness to robust configurable system design. In this paper, a novel built-in self-healing (BISH) methodology, based on run-time self-reconfiguration, is proposed. A soft microprocessor core implemented in the FPGA is responsible for the management and execution of all the BISH procedures. Fault detection and diagnosis is followed by repairing actions, taking advantage of the dynamic reconfiguration features offered by new FPGA families. Meanwhile, modular redundancy assures that the system still works correctly

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O problema do escalonamento, por ser um dos factores fundamentais na tomada de decisão para uma boa gestão das operações, tem sido alvo de um amplo estudo, tanto na sua componente teórica como na sua componente prática. A importância de um escalonamento correto das operações é preponderante, quando as pequenas diferenças, em termos de tempos de produção, podem ter um grande impacto na competitividade da organização. Em muitas unidades produtivas, existem máquinas capazes de realizar as mesmas operações com diferentes desempenhos. Isto pode dever-se à necessidade de flexibilizar os recursos ou mesmo a uma atualização da capacidade produtiva. Embora os problemas de máquinas diferentes em paralelo tenham sido alvo de um vasto estudo, muitos deles não são passíveis de ser resolvidos através de métodos exatos. O problema de minimização do makespan (Rm||Cmax), é NP-hard, sendo habitualmente abordado através de heurísticas. Entre as heurísticas utilizadas em problemas de minimização do makespan em máquinas diferentes em paralelo, é possível identificar duas filosofias de afectação: a que utiliza os tempos de processamento para alocar as tarefas e a que utiliza as datas de conclusão. Nesta dissertação, pretende-se dar uma contribuição para a resolução do problema de afectação de recursos em sistemas de produção. Para tal, foram propostas as heurísticas OMTC 3 e Suffrage One. A contribuição consiste na proposta de versões híbridas e modificadas das heurística MCT e Suffrage, uma vez identificadas várias características que podem limitar o seu desempenho, como o facto da heurística MCT alocar as tarefas numa ordem aleatória ou a heurística Suffrage alocar mais que uma tarefa por iteração. Finalmente, procedeu-se à realização de testes computacionais, para avaliar o desempenho das heurísticas propostas. Os testes realizados permitiram concluir que a heurística OMTC 3 apresentou um melhor desempenho que a heurística MCT.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The aggregation and management of Distributed Energy Resources (DERs) by an Virtual Power Players (VPP) is an important task in a smart grid context. The Energy Resource Management (ERM) of theses DERs can become a hard and complex optimization problem. The large integration of several DERs, including Electric Vehicles (EVs), may lead to a scenario in which the VPP needs several hours to have a solution for the ERM problem. This is the reason why it is necessary to use metaheuristic methodologies to come up with a good solution with a reasonable amount of time. The presented paper proposes a Simulated Annealing (SA) approach to determine the ERM considering an intensive use of DERs, mainly EVs. In this paper, the possibility to apply Demand Response (DR) programs to the EVs is considered. Moreover, a trip reduce DR program is implemented. The SA methodology is tested on a 32-bus distribution network with 2000 EVs, and the SA results are compared with a deterministic technique and particle swarm optimization results.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O método de união com ligações adesivas está cada vez mais a ser utilizado na conceção de estruturas mecânicas, por causa das vantagens significativas desta técnica em comparação com as ligações tradicionais. De facto, as juntas com ligação adesiva estão sob investigação intensa há bastante tempo. Entre as vantagens, destaca-se a redução de peso e possibilidade de unir diferentes materiais, incluindo compósitos, sem danificar as estruturas a ligar. Os adesivos comerciais variam desde resistentes e frágeis (por exemplo, Araldite® AV138) a menos resistentes e dúcteis (por exemplo, Araldite® 2015). Uma nova família de adesivos de poliuretano combina elevada resistência e ductilidade (por exemplo, Sikaforce® 7888). Este trabalho compara o desempenho à tração dos três adesivos supracitados, em juntas de alumínio (Al6082-T651) de sobreposição simples e dupla, com variação dos valores de comprimento de sobreposição (LO). A análise numérica de modelos de dano coesivo (MDC) foi realizada para analisar as tensões de arrancamento (oy) e as de corte (txy) na camada adesiva, para estudar a variável de dano do MDC durante o processo de rotura e para avaliar a capacidade MDC na previsão da resistência da junta. A análise da resistência e da variável de dano ajudou na compreensão das diferenças entre os adesivos no que se refere ao processo de rotura e resistência da junta. Observou-se que as juntas de sobreposição dupla apresentam uma distribuição de tensões bastante mais favorável relativamente às juntas de sobreposição simples, principalmente devido à eliminação da flexão do substrato interior. Como resultado, a resistência destas juntas foi tipicamente superior ao dobro da observada para as juntas de sobreposição simples, com exceção de algumas configurações de junta em que houve plastificação extensa ou mesmo rotura dos substratos por tração. O trabalho proposto permitiu também concluir que as previsões MDC são tipicamente precisas, e qual a família de adesivos é mais adequada para cada configuração de junta, com a clara vantagem para o Sikaforce® 7888. Como resultado deste trabalho, foram propostas diretrizes de conceção para juntas adesivas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Face à estagnação da tecnologia uniprocessador registada na passada década, aos principais fabricantes de microprocessadores encontraram na tecnologia multi-core a resposta `as crescentes necessidades de processamento do mercado. Durante anos, os desenvolvedores de software viram as suas aplicações acompanhar os ganhos de performance conferidos por cada nova geração de processadores sequenciais, mas `a medida que a capacidade de processamento escala em função do número de processadores, a computação sequencial tem de ser decomposta em várias partes concorrentes que possam executar em paralelo, para que possam utilizar as unidades de processamento adicionais e completar mais rapidamente. A programação paralela implica um paradigma completamente distinto da programação sequencial. Ao contrário dos computadores sequenciais tipificados no modelo de Von Neumann, a heterogeneidade de arquiteturas paralelas requer modelos de programação paralela que abstraiam os programadores dos detalhes da arquitectura e simplifiquem o desenvolvimento de aplicações concorrentes. Os modelos de programação paralela mais populares incitam os programadores a identificar instruções concorrentes na sua lógica de programação, e a especificá-las sob a forma de tarefas que possam ser atribuídas a processadores distintos para executarem em simultâneo. Estas tarefas são tipicamente lançadas durante a execução, e atribuídas aos processadores pelo motor de execução subjacente. Como os requisitos de processamento costumam ser variáveis, e não são conhecidos a priori, o mapeamento de tarefas para processadores tem de ser determinado dinamicamente, em resposta a alterações imprevisíveis dos requisitos de execução. `A medida que o volume da computação cresce, torna-se cada vez menos viável garantir as suas restrições temporais em plataformas uniprocessador. Enquanto os sistemas de tempo real se começam a adaptar ao paradigma de computação paralela, há uma crescente aposta em integrar execuções de tempo real com aplicações interativas no mesmo hardware, num mundo em que a tecnologia se torna cada vez mais pequena, leve, ubíqua, e portável. Esta integração requer soluções de escalonamento que simultaneamente garantam os requisitos temporais das tarefas de tempo real e mantenham um nível aceitável de QoS para as restantes execuções. Para tal, torna-se imperativo que as aplicações de tempo real paralelizem, de forma a minimizar os seus tempos de resposta e maximizar a utilização dos recursos de processamento. Isto introduz uma nova dimensão ao problema do escalonamento, que tem de responder de forma correcta a novos requisitos de execução imprevisíveis e rapidamente conjeturar o mapeamento de tarefas que melhor beneficie os critérios de performance do sistema. A técnica de escalonamento baseado em servidores permite reservar uma fração da capacidade de processamento para a execução de tarefas de tempo real, e assegurar que os efeitos de latência na sua execução não afectam as reservas estipuladas para outras execuções. No caso de tarefas escalonadas pelo tempo de execução máximo, ou tarefas com tempos de execução variáveis, torna-se provável que a largura de banda estipulada não seja consumida por completo. Para melhorar a utilização do sistema, os algoritmos de partilha de largura de banda (capacity-sharing) doam a capacidade não utilizada para a execução de outras tarefas, mantendo as garantias de isolamento entre servidores. Com eficiência comprovada em termos de espaço, tempo, e comunicação, o mecanismo de work-stealing tem vindo a ganhar popularidade como metodologia para o escalonamento de tarefas com paralelismo dinâmico e irregular. O algoritmo p-CSWS combina escalonamento baseado em servidores com capacity-sharing e work-stealing para cobrir as necessidades de escalonamento dos sistemas abertos de tempo real. Enquanto o escalonamento em servidores permite partilhar os recursos de processamento sem interferências a nível dos atrasos, uma nova política de work-stealing que opera sobre o mecanismo de capacity-sharing aplica uma exploração de paralelismo que melhora os tempos de resposta das aplicações e melhora a utilização do sistema. Esta tese propõe uma implementação do algoritmo p-CSWS para o Linux. Em concordância com a estrutura modular do escalonador do Linux, ´e definida uma nova classe de escalonamento que visa avaliar a aplicabilidade da heurística p-CSWS em circunstâncias reais. Ultrapassados os obstáculos intrínsecos `a programação da kernel do Linux, os extensos testes experimentais provam que o p-CSWS ´e mais do que um conceito teórico atrativo, e que a exploração heurística de paralelismo proposta pelo algoritmo beneficia os tempos de resposta das aplicações de tempo real, bem como a performance e eficiência da plataforma multiprocessador.