931 resultados para Hard And Brittle Coating
Resumo:
Introdução: A produção e o uso da literatura científica são analisados, quantificados e interpretados pela bibliometria, ciência utilizada para estudos métricos da informação publicada e que estuda as questões relacionadas com a comunicação científica e a atividade científica. Objetivo: O estudo apresentado é uma análise bibliométrica da produção científica portuguesa da área da saúde indexada na Web of Science. Métodos: Analisa-se a produção referente ao período entre 1992 e final de 2011. A análise da produção científica centrou-se nas seguintes variáveis: categorias de classificação da Web of Science, tipologia de documentos indexados, títulos de revistas, distribuição por anos de publicação, afiliação institucional, idiomas, países de origem dos autores com quem foram estabelecidas relações de parceria científica e quem facultou os financiamentos à investigação científica. Resultados: Foram contabilizados 34.208 trabalhos. Destes, o artigo é a forma mais utilizada pelos autores portugueses para a divulgação dos resultados de investigação (58,5%). A década mais recente é contemplada com 75,4% dos registos. A maioria da produção com visibilidade internacional é oriunda de universidades e de centros de investigação hospitalar; institutos, laboratórios da indústria farmacêutica e universidades estrangeiras têm valores residuais. A colaboração com outros investigadores internacionais destaca-se no caso da Europa (73,2%). O financiamento da investigação científica é suportado basicamente pela Fundação para a Ciência e Tecnologia (59,5%), seguida da Comissão Europeia (17,8%). O inglês é o idioma mais usado para a divulgação dos resultados de investigação nacional na área da saúde (97,8%). Conclusões: O uso de bases de dados ou de plataformas científicas para estudos bibliométricos é um processo moroso e difícil. O total de trabalhos em análise foi sempre o mesmo mas, em algumas variáveis, os valores não coincidem, quer porque alguns dos registos foram classificados em mais do que uma categoria temática, quer pelos trabalhos multidisciplinares oriundos das mesmas instituições, quer pelos trabalhos de colaboração internacional. Também no presente estudo os artigos são o veículo privilegiado para a divulgação dos resultados científicos. Apontamento final: deve encorajar-se a utilização de outras plataformas científicas e de outras bases de dados para uma mais completa recuperação da produção científica nacional na área da saúde. Introduction: The production and the use of the scientific literature are analyzed, quantified and interpreted by bibliometry. Bibliometry is the science used in published information metric studies and studies the questions of scientific communication and the scientific production. Aim of the study: This study presents a bibliometric analysis of the indexed Web of Science Portuguese scientific production in the health field. Methods: We analyzed the production from 1992 to the end of 2011. This analysis focused in several variables: general categories areas of Web of Science, indexed document types, source titles, publication years, group/corporate authors, languages, identification of the countries with scientific partnerships and identification of the funding agencies for scientific research. Results: We found 34.208 works. From this, the article is the most common channel for disseminating the research results (58.5%). The most recent decade has 75.4% of the total of records. Most of the production with international visibility becomes from universities and hospital research centers; institutes, pharmaceutical labs or foreign universities have residual values. Collaborating with other international researchers is very common, particularly with Europe (73.2%). In general, the Fundação para a Ciência e Tecnologia supports the scientific research (59.5%), followed by the European Commission (17.8%). The language commonly used for disseminating the research results in health is the English (97.8%). Conclusions: Using databases or scientific platforms for bibliometric studies is a hard and difficult process. The total of works analyzed was always the same but, with some variables, the numbers does not coincide: a) some of the registries were classified in several categories; b) some of the multidisciplinary works were from the same institution; c) the large number of international partnership. In this study, articles are the privileged way for disseminating the scientific results. A last thought: the use of other scientific platforms and databases should be encouraged for a more complete retrieval of the national research production in health.
Resumo:
The catalytic properties of Pt based cordierite foam catalysts have been evaluated in catalytic combustion of toluene (800 ppm in air). The catalysts contain identical Pt content (0.1%) which was introduced by three different ways: Pt ion exchange on MFI zeolite and then coating on the foam; Pt ion exchange after zeolite coating and finally Pt directly wet impregnated on the cordierite foam. The catalytic behaviour of Pt foam based catalysts was compared with that of PtMFI zeolite under powder form. Pt exchanged MFI supported on the cordierite foams present an improvement of activity for toluene combustion of about 50 degrees C on the light off temperature (T-50%). The enhanced performance of the structured catalysts is due not only to the open structure of foams and homogeneous thin layers catalyst deposited on their cell walls, but also to the fact that the size and location of Pt particles present in MFI zeolite are changed during the dipping step. Indeed, as prepared Pt samples and those used in the preparation of the slurry were observed by transmission electron microscopy revealing that the chemical interaction of PtMFI zeolite with the binder and detergent, both present in the slurry, leads to an increase of Pt particles size which were found to migrate from internal pores to the external surface of zeolite crystallites thereby increasing catalytic activity. (C) 2011 Elsevier B.V. All rights reserved.
Resumo:
Scheduling resolution requires the intervention of highly skilled human problemsolvers. This is a very hard and challenging domain because current systems are becoming more and more complex, distributed, interconnected and subject to rapidly changing. A natural Autonomic Computing evolution in relation to Current Computing is to provide systems with Self-Managing ability with a minimum human interference. This paper addresses the resolution of complex scheduling problems using cooperative negotiation. A Multi-Agent Autonomic and Meta-heuristics based framework with self-configuring capabilities is proposed.
Resumo:
The main purpose of this paper is to propose a Multi-Agent Autonomic and Bio-Inspired based framework with selfmanaging capabilities to solve complex scheduling problems using cooperative negotiation. Scheduling resolution requires the intervention of highly skilled human problem-solvers. This is a very hard and challenging domain because current systems are becoming more and more complex, distributed, interconnected and subject to rapidly changing. A natural Autonomic Computing (AC) evolution in relation to Current Computing is to provide systems with Self-Managing ability with a minimum human interference.
Resumo:
Introdução: No futebol, a entorse lateral do tornozelo (ELT) destaca-se como sendo a lesão mais prevalente. Potenciada pela variedade de chuteiras disponíveis no mercado e pela crescente utilização de relvados sintéticos, a interação entre o terreno e o calçado tem assumido elevada relevância como fator de risco para a ELT. A maior incidência de lesões na 2ª parte do jogo traduz a necessidade do estudo dessa interação durante tarefas que envolvam fadiga. Objetivo: Estudar a influência das chuteiras em variáveis preditoras do risco de ELT em relvado sintético sob duas condições: sem e com fadiga dos músculos eversores do tornozelo Métodos: Foi utilizada uma amostra de atletas saudáveis. Todos os indivíduos realizaram 3 séries de 5 saltos médio-laterais uni-podálicos, cada uma com 1 de 3 modelos de chuteiras (Turf, Hard e Firm ground) em duas condições: sem e com fadiga induzida pelo dinamómetro isocinético. Durante a tarefa, a atividade eletromiográfica do longo e curto peroniais, o valor das forças de reação do solo e o movimento do retro-pé (plano frontal), foram recolhidos e usados para calcular variáveis cinemáticas (eversão/inversão do tornozelo, o deslocamento e velocidade do centro de pressão), cinéticas (taxa de crescimento das forças de reação do solo) e neuromusculares (tempo de ativação muscular dos peroniais). Resultados: À exceção do tempo de ativação do curto peronial com o modelo Hard ground (sem fadiga vs com fadiga (p=0,050), não foram identificadas diferenças estatisticamente significativas nas variáveis preditoras de lesão, entre chuteiras, nem entre as duas condições avaliadas. Conclusão: Para o teste funcional escolhido e executado por atletas saudáveis em sintético de 3ª geração, nenhuma das chuteiras apresenta maior risco de lesão (com e sem fadiga), tendo em conta as variáveis em estudo.
Resumo:
A geração de trajectórias de robôs em tempo real é uma tarefa muito complexa, não
existindo ainda um algoritmo que a permita resolver de forma eficaz. De facto, há
controladores eficientes para trajectórias previamente definidas, todavia, a adaptação a
variações imprevisíveis, como sendo terrenos irregulares ou obstáculos, constitui ainda um
problema em aberto na geração de trajectórias em tempo real de robôs.
Neste trabalho apresentam-se modelos de geradores centrais de padrões de locomoção
(CPGs), inspirados na biologia, que geram os ritmos locomotores num robô quadrúpede.
Os CPGs são modelados matematicamente por sistemas acoplados de células (ou
neurónios), sendo a dinâmica de cada célula dada por um sistema de equações diferenciais
ordinárias não lineares. Assume-se que as trajectórias dos robôs são constituídas por esta
parte rítmica e por uma parte discreta. A parte discreta pode ser embebida na parte rítmica,
(a.1) como um offset ou (a.2) adicionada às expressões rítmicas, ou (b) pode ser calculada
independentemente e adicionada exactamente antes do envio dos sinais para as articulações
do robô. A parte discreta permite inserir no passo locomotor uma perturbação, que poderá
estar associada à locomoção em terrenos irregulares ou à existência de obstáculos na
trajectória do robô. Para se proceder á análise do sistema com parte discreta, será variado o
parâmetro g. O parâmetro g, presente nas equações da parte discreta, representa o offset do
sinal após a inclusão da parte discreta.
Revê-se a teoria de bifurcação e simetria que permite a classificação das soluções
periódicas produzidas pelos modelos de CPGs com passos locomotores quadrúpedes. Nas
simulações numéricas, usam-se as equações de Morris-Lecar e o oscilador de Hopf como
modelos da dinâmica interna de cada célula para a parte rítmica. A parte discreta é
modelada por um sistema inspirado no modelo VITE. Medem-se a amplitude e a
frequência de dois passos locomotores para variação do parâmetro g, no intervalo [-5;5].
Consideram-se duas formas distintas de incluir a parte discreta na parte rítmica: (a) como
um (a.1) offset ou (a.2) somada nas expressões que modelam a parte rítmica, e (b) somada
ao sinal da parte rítmica antes de ser enviado às articulações do robô. No caso (a.1),
considerando o oscilador de Hopf como dinâmica interna das células, verifica-se que a amplitude e frequência se mantêm constantes para -5
Resumo:
Um túnel é uma obra subterrânea dimensionada com o objetivo de satisfazer diversas necessidades num mundo onde o planeamento urbano e a gestão de espaços ganha cada vez mais importância. A execução de este género de obras de engenharia pode ter várias finalidades, que podem ir desde a construção/reabilitação de redes de saneamento, abastecimento de água ou gás (túneis de pequeno diâmetro) até à construção/modernização de redes pedonais, rodoviárias ou ferroviárias, galerias mineiras, tuneis para barragens, etc. (túneis de grande diâmetro). As tuneladoras são uma das ferramentas de desmonte mais utilizadas na execução de obras subterrâneas. Existem no mercado vários tipos de máquinas tuneladoras, a sua escolha e dimensionamento depende de diversos fatores que devem ser cuidadosamente analisados, nomeadamente tipo de terreno a escavar, presença ou não de água na zona de escavação, dureza e/ou abrasividade das formações a atravessar, etc. Será feita uma abordagem aos princípios de funcionamento de este tipo de equipamentos, indicando o seu campo de aplicação dentro da respetiva tecnologia de escavação onde se inserem. Finalmente será desenvolvido o caso da empreitada: “Execução da Travessia do Rio Ave, da Estação Elevatória de Vila do Conde e dos Sistemas Elevatória da Aguçadoura e da Apúlia 4 - AR 44.0.08”, onde em alternativa ao desvio provisório do Rio Ave em Vila do Conde foi projetada a execução de duas travessias no diâmetro 1200 mm, uma delas escavadas maioritariamente em terreno aluvionar brando e a outra em terreno rochoso duro e abrasivo com recurso, em ambos casos, à utilização de máquina tuneladora. Através da avaliação do desempenho do equipamento escolhido para execução de este trabalho será estudada a eficiência da utilização deste tipo de equipamento. Com o objetivo de mostrar os custos associados à execução de obras de escavação subterrânea com recurso a utilização de máquinas tuneladoras, será feita uma análise económica e comparativa relativa aos dois casos de obra apresentados.
Resumo:
Scheduling of constrained deadline sporadic task systems on multiprocessor platforms is an area which has received much attention in the recent past. It is widely believed that finding an optimal scheduler is hard, and therefore most studies have focused on developing algorithms with good processor utilization bounds. These algorithms can be broadly classified into two categories: partitioned scheduling in which tasks are statically assigned to individual processors, and global scheduling in which each task is allowed to execute on any processor in the platform. In this paper we consider a third, more general, approach called cluster-based scheduling. In this approach each task is statically assigned to a processor cluster, tasks in each cluster are globally scheduled among themselves, and clusters in turn are scheduled on the multiprocessor platform. We develop techniques to support such cluster-based scheduling algorithms, and also consider properties that minimize total processor utilization of individual clusters. In the last part of this paper, we develop new virtual cluster-based scheduling algorithms. For implicit deadline sporadic task systems, we develop an optimal scheduling algorithm that is neither Pfair nor ERfair. We also show that the processor utilization bound of us-edf{m/(2m−1)} can be improved by using virtual clustering. Since neither partitioned nor global strategies dominate over the other, cluster-based scheduling is a natural direction for research towards achieving improved processor utilization bounds.
Resumo:
Dissertação apresentada ao Instituto Superior de Contabilidade para a obtenção do Grau de Mestre em Auditoria Orientador: Mestre Helena Maria Santos de Oliveira
Resumo:
The new generations of SRAM-based FPGA (field programmable gate array) devices are the preferred choice for the implementation of reconfigurable computing platforms intended to accelerate processing in real-time systems. However, FPGA's vulnerability to hard and soft errors is a major weakness to robust configurable system design. In this paper, a novel built-in self-healing (BISH) methodology, based on run-time self-reconfiguration, is proposed. A soft microprocessor core implemented in the FPGA is responsible for the management and execution of all the BISH procedures. Fault detection and diagnosis is followed by repairing actions, taking advantage of the dynamic reconfiguration features offered by new FPGA families. Meanwhile, modular redundancy assures that the system still works correctly
Resumo:
O problema do escalonamento, por ser um dos factores fundamentais na tomada de decisão para uma boa gestão das operações, tem sido alvo de um amplo estudo, tanto na sua componente teórica como na sua componente prática. A importância de um escalonamento correto das operações é preponderante, quando as pequenas diferenças, em termos de tempos de produção, podem ter um grande impacto na competitividade da organização. Em muitas unidades produtivas, existem máquinas capazes de realizar as mesmas operações com diferentes desempenhos. Isto pode dever-se à necessidade de flexibilizar os recursos ou mesmo a uma atualização da capacidade produtiva. Embora os problemas de máquinas diferentes em paralelo tenham sido alvo de um vasto estudo, muitos deles não são passíveis de ser resolvidos através de métodos exatos. O problema de minimização do makespan (Rm||Cmax), é NP-hard, sendo habitualmente abordado através de heurísticas. Entre as heurísticas utilizadas em problemas de minimização do makespan em máquinas diferentes em paralelo, é possível identificar duas filosofias de afectação: a que utiliza os tempos de processamento para alocar as tarefas e a que utiliza as datas de conclusão. Nesta dissertação, pretende-se dar uma contribuição para a resolução do problema de afectação de recursos em sistemas de produção. Para tal, foram propostas as heurísticas OMTC 3 e Suffrage One. A contribuição consiste na proposta de versões híbridas e modificadas das heurística MCT e Suffrage, uma vez identificadas várias características que podem limitar o seu desempenho, como o facto da heurística MCT alocar as tarefas numa ordem aleatória ou a heurística Suffrage alocar mais que uma tarefa por iteração. Finalmente, procedeu-se à realização de testes computacionais, para avaliar o desempenho das heurísticas propostas. Os testes realizados permitiram concluir que a heurística OMTC 3 apresentou um melhor desempenho que a heurística MCT.
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Mecânica
Resumo:
Masters Thesis – Academic Year 2007/2008 - European Master’s Degree in Human Rights and Democratization (E.MA) - European Inter-university Centre for Human Rights and Democratization (EIUC) -Faculdade de Direito, Universidade Nova de Lisboa (UNL)
Resumo:
The aggregation and management of Distributed Energy Resources (DERs) by an Virtual Power Players (VPP) is an important task in a smart grid context. The Energy Resource Management (ERM) of theses DERs can become a hard and complex optimization problem. The large integration of several DERs, including Electric Vehicles (EVs), may lead to a scenario in which the VPP needs several hours to have a solution for the ERM problem. This is the reason why it is necessary to use metaheuristic methodologies to come up with a good solution with a reasonable amount of time. The presented paper proposes a Simulated Annealing (SA) approach to determine the ERM considering an intensive use of DERs, mainly EVs. In this paper, the possibility to apply Demand Response (DR) programs to the EVs is considered. Moreover, a trip reduce DR program is implemented. The SA methodology is tested on a 32-bus distribution network with 2000 EVs, and the SA results are compared with a deterministic technique and particle swarm optimization results.
Resumo:
O método de união com ligações adesivas está cada vez mais a ser utilizado na conceção de estruturas mecânicas, por causa das vantagens significativas desta técnica em comparação com as ligações tradicionais. De facto, as juntas com ligação adesiva estão sob investigação intensa há bastante tempo. Entre as vantagens, destaca-se a redução de peso e possibilidade de unir diferentes materiais, incluindo compósitos, sem danificar as estruturas a ligar. Os adesivos comerciais variam desde resistentes e frágeis (por exemplo, Araldite® AV138) a menos resistentes e dúcteis (por exemplo, Araldite® 2015). Uma nova família de adesivos de poliuretano combina elevada resistência e ductilidade (por exemplo, Sikaforce® 7888). Este trabalho compara o desempenho à tração dos três adesivos supracitados, em juntas de alumínio (Al6082-T651) de sobreposição simples e dupla, com variação dos valores de comprimento de sobreposição (LO). A análise numérica de modelos de dano coesivo (MDC) foi realizada para analisar as tensões de arrancamento (oy) e as de corte (txy) na camada adesiva, para estudar a variável de dano do MDC durante o processo de rotura e para avaliar a capacidade MDC na previsão da resistência da junta. A análise da resistência e da variável de dano ajudou na compreensão das diferenças entre os adesivos no que se refere ao processo de rotura e resistência da junta. Observou-se que as juntas de sobreposição dupla apresentam uma distribuição de tensões bastante mais favorável relativamente às juntas de sobreposição simples, principalmente devido à eliminação da flexão do substrato interior. Como resultado, a resistência destas juntas foi tipicamente superior ao dobro da observada para as juntas de sobreposição simples, com exceção de algumas configurações de junta em que houve plastificação extensa ou mesmo rotura dos substratos por tração. O trabalho proposto permitiu também concluir que as previsões MDC são tipicamente precisas, e qual a família de adesivos é mais adequada para cada configuração de junta, com a clara vantagem para o Sikaforce® 7888. Como resultado deste trabalho, foram propostas diretrizes de conceção para juntas adesivas.