53 resultados para Algorithms, Properties, the KCube Graphs
Resumo:
This paper analyzes the dynamic performance of two cooperative robot manipulators. It is studied the implementation of fractional-order algorithms in the position/force control of two cooperating robotic manipulators holding an object. The simulations reveal that fractional algorithms lead to performances superior to classical integer-order controllers.
Resumo:
This paper studies the application of fractional algorithms in the control of a quad-rotor rotorcraft. The development of a flight simulator provide the evaluation of the controller algorithm. Several basic maneuvers are investigated, namely the elevation and the position control.
Resumo:
The resource constrained project scheduling problem (RCPSP) is a difficult problem in combinatorial optimization for which extensive investigation has been devoted to the development of efficient algorithms. During the last couple of years many heuristic procedures have been developed for this problem, but still these procedures often fail in finding near-optimal solutions. This paper proposes a genetic algorithm for the resource constrained project scheduling problem. The chromosome representation of the problem is based on random keys. The schedule is constructed using a heuristic priority rule in which the priorities and delay times of the activities are defined by the genetic algorithm. The approach was tested on a set of standard problems taken from the literature and compared with other approaches. The computational results validate the effectiveness of the proposed algorithm.
Resumo:
- The resource constrained project scheduling problem (RCPSP) is a difficult problem in combinatorial optimization for which extensive investigation has been devoted to the development of efficient algorithms. During the last couple of years many heuristic procedures have been developed for this problem, but still these procedures often fail in finding near-optimal solutions. This paper proposes a genetic algorithm for the resource constrained project scheduling problem. The chromosome representation of the problem is based on random keys. The schedule is constructed using a heuristic priority rule in which the priorities and delay times of the activities are defined by the genetic algorithm. The approach was tested on a set of standard problems taken from the literature and compared with other approaches. The computational results validate the effectiveness of the proposed algorithm
Resumo:
In order to decrease the risk of severe wildfire, prescribed fire has recently been adopted in Portugal and elsewhere in the Mediterranean as a major tool for reducing the fuel load instead of manual or mechanical removal of vegetation. There has been some research into its impact on soils in shrublands and grasslands, but to date little research has been conducted in forested areas in the region. As a result, the impact of prescribed fire on the physico-chemical soil characteristics of forest soils has been assumed to be minimal, but this has not been demonstrated. In this study, we present the results of a monitoring campaign of a detailed pre- and post-prescribed fire assessment of soil properties in a long-unburnt P. pinaster plantation, NW Portugal. The soil characteristics examined were pH, total porosity, bulk density, moisture content, organic matter content and litter/ash quantity. The results show that there was no significant impact on the measured soil properties, the only effect being confined to minor changes in the upper 1 cm of soil. We conclude that provided the fire is carried out according to strict guidelines in P. pinaster forest, a minimal impact on soil properties can be expected.
Resumo:
Energy consumption is one of the major issues for modern embedded systems. Early, power saving approaches mainly focused on dynamic power dissipation, while neglecting the static (leakage) energy consumption. However, technology improvements resulted in a case where static power dissipation increasingly dominates. Addressing this issue, hardware vendors have equipped modern processors with several sleep states. We propose a set of leakage-aware energy management approaches that reduce the energy consumption of embedded real-time systems while respecting the real-time constraints. Our algorithms are based on the race-to-halt strategy that tends to run the system at top speed with an aim to create long idle intervals, which are used to deploy a sleep state. The effectiveness of our algorithms is illustrated with an extensive set of simulations that show an improvement of up to 8% reduction in energy consumption over existing work at high utilization. The complexity of our algorithms is smaller when compared to state-of-the-art algorithms. We also eliminate assumptions made in the related work that restrict the practical application of the respective algorithms. Moreover, a novel study about the relation between the use of sleep intervals and the number of pre-emptions is also presented utilizing a large set of simulation results, where our algorithms reduce the experienced number of pre-emptions in all cases. Our results show that sleep states in general can save up to 30% of the overall number of pre-emptions when compared to the sleep-agnostic earliest-deadline-first algorithm.
Resumo:
Consider scheduling of real-time tasks on a multiprocessor where migration is forbidden. Specifically, consider the problem of determining a task-to-processor assignment for a given collection of implicit-deadline sporadic tasks upon a multiprocessor platform in which there are two distinct types of processors. For this problem, we propose a new algorithm, LPC (task assignment based on solving a Linear Program with Cutting planes). The algorithm offers the following guarantee: for a given task set and a platform, if there exists a feasible task-to-processor assignment, then LPC succeeds in finding such a feasible task-to-processor assignment as well but on a platform in which each processor is 1.5 × faster and has three additional processors. For systems with a large number of processors, LPC has a better approximation ratio than state-of-the-art algorithms. To the best of our knowledge, this is the first work that develops a provably good real-time task assignment algorithm using cutting planes.
Resumo:
The application of mathematical methods and computer algorithms in the analysis of economic and financial data series aims to give empirical descriptions of the hidden relations between many complex or unknown variables and systems. This strategy overcomes the requirement for building models based on a set of ‘fundamental laws’, which is the paradigm for studying phenomena usual in physics and engineering. In spite of this shortcut, the fact is that financial series demonstrate to be hard to tackle, involving complex memory effects and a apparently chaotic behaviour. Several measures for describing these objects were adopted by market agents, but, due to their simplicity, they are not capable to cope with the diversity and complexity embedded in the data. Therefore, it is important to propose new measures that, on one hand, are highly interpretable by standard personal but, on the other hand, are capable of capturing a significant part of the dynamical effects.
Resumo:
Mestrado em Engenharia Informática - Área de Especialização em Arquiteturas, Sistemas e Redes
Resumo:
A liberalização dos mercados de energia e a utilização intensiva de produção distribuída tem vindo a provocar uma alteração no paradigma de operação das redes de distribuição de energia elétrica. A continuidade da fiabilidade das redes de distribuição no contexto destes novos paradigmas requer alterações estruturais e funcionais. O conceito de Smart Grid vem permitir a adaptação das redes de distribuição ao novo contexto. Numa Smart Grid os pequenos e médios consumidores são chamados ao plano ativo das participações. Este processo é conseguido através da aplicação de programas de demand response e da existência de players agregadores. O uso de programas de demand response para alcançar benefícios para a rede encontra-se atualmente a ser estudado no meio científico. Porém, existe a necessidade de estudos que procurem benefícios para os pequenos e médios consumidores. O alcance dos benefícios para os pequenos e médios consumidores não é apenas vantajoso para o consumidor, como também o é para a rede elétrica de distribuição. A participação, dos pequenos e médios consumidores, em programas de demand response acontece significativamente através da redução de consumos energéticos. De modo a evitar os impactos negativos que podem provir dessas reduções, o trabalho aqui proposto faz uso de otimizações que recorrem a técnicas de aprendizagem através da utilização redes neuronais artificiais. Para poder efetuar um melhor enquadramento do trabalho com as Smart Grids, será desenvolvido um sistema multiagente capaz de simular os principais players de uma Smart Grid. O foco deste sistema multiagente será o agente responsável pela simulação do pequeno e médio consumidor. Este agente terá não só que replicar um pequeno e médio consumidor, como terá ainda que possibilitar a integração de cargas reais e virtuais. Como meio de interação com o pequeno e médio consumidor, foi desenvolvida no âmbito desta dissertação um sistema móvel. No final do trabalho obteve-se um sistema multiagente capaz de simular uma Smart Grid e a execução de programas de demand response, sSendo o agente representante do pequeno e médio consumidor capaz de tomar ações e reações de modo a poder responder autonomamente aos programas de demand response lançados na rede. O desenvolvimento do sistema permite: o estudo e análise da integração dos pequenos e médios consumidores nas Smart Grids por meio de programas de demand response; a comparação entre múltiplos algoritmos de otimização; e a integração de métodos de aprendizagem. De modo a demonstrar e viabilizar as capacidades de todo o sistema, a dissertação inclui casos de estudo para as várias vertentes que podem ser exploradas com o sistema desenvolvido.
Resumo:
As ligações adesivas têm sido cada vez mais utilizadas nos últimos anos em detrimento de outros métodos tais como a soldadura, ligações aparafusadas e ligações rebitadas. Os plásticos de Engenharia têm um papel cada vez mais preponderante na indústria, devido às suas excelentes propriedades. Neste trabalho foram considerados três polímeros diferentes, o Policloreto de Vinilo (PVC) e o Polipropileno (PP) dado o seu baixo custo e peso e a superfície quimicamente inerte e o Politetrafluoretileno (PTFE) devido às suas boas propriedades químicas e excelentes propriedades de deslizamento. No entanto, estes materiais possuem uma baixa energia de superfície e, por isso, são muito difíceis de colar com mais relevância para o PTFE. Assim, após um estudo preliminar foi escolhido, para realizar as colagens necessárias, um adesivo da Tamarron Technology “Tam Tech Adhesive”, próprio para este tipo de substratos difíceis de colar. Posteriormente foi efetuada a sua caraterização através de ensaios de provetes maciços à tração. O principal objetivo deste trabalho foi estudar juntas de sobreposição simples de materiais poliméricos difíceis de colar tais como o PTFE, PP e PVC com recurso a um adesivo que não necessitasse de preparação de superfície. Foram fabricadas juntas de sobreposição simples (JSS) segundo os métodos Lap Shear (LS) e Block Shear (BS) dos três materiais referidos anteriormente e realizados os respetivos ensaios para avaliar o comportamento mecânico das ligações adesivas. Os materiais utilizados como substratos foram também submetidos a ensaios de tração com a finalidade de obter o módulo de elasticidade e as suas propriedades de resistência. Os substratos envolvidos nas juntas adesivas não sofreram qualquer preparação especial das superfícies. Na maioria dos casos consistiu apenas numa limpeza das superfícies com álcool etílico. Contudo, para o PTFE também se experimentou a preparação por abrasão com lixa e por chama. Foi também efetuado um trabalho de simulação numérica por elementos finitos utilizando um modelo de dano coesivo triangular. As resistências ao corte obtidas são superiores em BS comparativamente a LS, exceção feita aos substratos de PTFE aonde os resultados são similares. O tratamento por chama melhorou a resistência mecânica das juntas. Verificou-se também que o modelo numérico simulou adequadamente o comportamento das juntas principalmente das LS.
Resumo:
A análise forense de documentos é uma das áreas das Ciências Forenses, responsável pela verificação da autenticidade dos documentos. Os documentos podem ser de diferentes tipos, sendo a moeda ou escrita manual as evidências forenses que mais frequentemente motivam a análise. A associação de novas tecnologias a este processo de análise permite uma melhor avaliação dessas evidências, tornando o processo mais célere. Esta tese baseia-se na análise forense de dois tipos de documentos - notas de euro e formulários preenchidos por escrita manual. Neste trabalho pretendeu-se desenvolver técnicas de processamento e análise de imagens de evidências dos tipos referidos com vista a extração de medidas que permitam aferir da autenticidade dos mesmos. A aquisição das imagens das notas foi realizada por imagiologia espetral, tendo-se definidas quatro modalidades de aquisição: luz visível transmitida, luz visível refletida, ultravioleta A e ultravioleta C. Para cada uma destas modalidades de aquisição, foram também definidos 2 protocolos: frente e verso. A aquisição das imagens dos documentos escritos manualmente efetuou-se através da digitalização dos mesmos com recurso a um digitalizador automático de um aparelho multifunções. Para as imagens das notas desenvolveram-se vários algoritmos de processamento e análise de imagem, específicos para este tipo de evidências. Esses algoritmos permitem a segmentação da região de interesse da imagem, a segmentação das sub-regiões que contém as marcas de segurança a avaliar bem como da extração de algumas características. Relativamente as imagens dos documentos escritos manualmente, foram também desenvolvidos algoritmos de segmentação que permitem obter todas as sub-regiões de interesse dos formulários, de forma a serem analisados os vários elementos. Neste tipo de evidências, desenvolveu-se ainda um algoritmo de análise para os elementos correspondentes à escrita de uma sequência numérica o qual permite a obtenção das imagens correspondentes aos caracteres individuais. O trabalho desenvolvido e os resultados obtidos permitiram a definição de protocolos de aquisição de imagens destes tipos de evidências. Os algoritmos automáticos de segmentação e análise desenvolvidos ao longo deste trabalho podem ser auxiliares preciosos no processo de análise da autenticidade dos documentos, o qual, ate então, é feito manualmente. Apresentam-se ainda os resultados dos estudos feitos às diversas evidências, nomeadamente as performances dos diversos algoritmos analisados, bem como algumas das adversidades encontradas durante o processo. Apresenta-se também uma discussão da metodologia adotada e dos resultados, bem como de propostas de continuação deste trabalho, nomeadamente, a extração de características e a implementação de classificadores capazes aferir da autenticidade dos documentos.
Resumo:
Harnessing idle PCs CPU cycles, storage space and other resources of networked computers to collaborative are mainly fixated on for all major grid computing research projects. Most of the university computers labs are occupied with the high puissant desktop PC nowadays. It is plausible to notice that most of the time machines are lying idle or wasting their computing power without utilizing in felicitous ways. However, for intricate quandaries and for analyzing astronomically immense amounts of data, sizably voluminous computational resources are required. For such quandaries, one may run the analysis algorithms in very puissant and expensive computers, which reduces the number of users that can afford such data analysis tasks. Instead of utilizing single expensive machines, distributed computing systems, offers the possibility of utilizing a set of much less expensive machines to do the same task. BOINC and Condor projects have been prosperously utilized for solving authentic scientific research works around the world at a low cost. In this work the main goal is to explore both distributed computing to implement, Condor and BOINC, and utilize their potency to harness the ideal PCs resources for the academic researchers to utilize in their research work. In this thesis, Data mining tasks have been performed in implementation of several machine learning algorithms on the distributed computing environment.
Resumo:
Ammonia is an important gas in many power plants and industrial processes so its detection is of extreme importance in environmental monitoring and process control due to its high toxicity. Ammonia’s threshold limit is 25 ppm and the exposure time limit is 8 h, however exposure to 35 ppm is only secure for 10 min. In this work a brief introduction to ammonia aspects are presented, like its physical and chemical properties, the dangers in its manipulation, its ways of production and its sources. The application areas in which ammonia gas detection is important and needed are also referred: environmental gas analysis (e.g. intense farming), automotive-, chemical- and medical industries. In order to monitor ammonia gas in these different areas there are some requirements that must be attended. These requirements determine the choice of sensor and, therefore, several types of sensors with different characteristics were developed, like metal oxides, surface acoustic wave-, catalytic-, and optical sensors, indirect gas analyzers, and conducting polymers. All the sensors types are described, but more attention will be given to polyaniline (PANI), particularly to its characteristics, syntheses, chemical doping processes, deposition methods, transduction modes, and its adhesion to inorganic materials. Besides this, short descriptions of PANI nanostructures, the use of electrospinning in the formation of nanofibers/microfibers, and graphene and its characteristics are included. The created sensor is an instrument that tries to achieve a goal of the medical community in the control of the breath’s ammonia levels being an easy and non-invasive method for diagnostic of kidney malfunction and/or gastric ulcers. For that the device should be capable to detect different levels of ammonia gas concentrations. So, in the present work an ammonia gas sensor was developed using a conductive polymer composite which was immobilized on a carbon transducer surface. The experiments were targeted to ammonia measurements at ppb level. Ammonia gas measurements were carried out in the concentration range from 1 ppb to 500 ppb. A commercial substrate was used; screen-printed carbon electrodes. After adequate surface pre-treatment of the substrate, its electrodes were covered by a nanofibrous polymeric composite. The conducting polyaniline doped with sulfuric acid (H2SO4) was blended with reduced graphene oxide (RGO) obtained by wet chemical synthesis. This composite formed the basis for the formation of nanofibers by electrospinning. Nanofibers will increase the sensitivity of the sensing material. The electrospun PANI-RGO fibers were placed on the substrate and then dried at ambient temperature. Amperometric measurements were performed at different ammonia gas concentrations (1 to 500 ppb). The I-V characteristics were registered and some interfering gases were studied (NO2, ethanol, and acetone). The gas samples were prepared in a custom setup and were diluted with dry nitrogen gas. Electrospun nanofibers of PANI-RGO composite demonstrated an enhancement in NH3 gas detection when comparing with only electrospun PANI nanofibers. Was visible higher range of resistance at concentrations from 1 to 500 ppb. It was also observed that the sensor had stable, reproducible and recoverable properties. Moreover, it had better response and recovery times. The new sensing material of the developed sensor demonstrated to be a good candidate for ammonia gas determination.
Resumo:
A indústria dos curtumes é uma das indústrias mais antigas e tradicionais de Portugal e é também uma das mais poluentes. Esta indústria produz muitos resíduos sólidos, entre os quais, está o pelo de bovino. A valorização deste resíduo permite reduzir o impacto ambiental e aumentar a eco-eficiência da indústria dos curtumes. O pelo de bovino, rico em queratina, é um bom candidato para a produção de biofilmes. O objetivo deste trabalho foi a valorização de um resíduo de indústria de curtume (pelo de bovino) através da produção de filmes à base de queratina por termocompressão. Foi estudada a melhor formulação e as condições operatórias mais favoráveis com a finalidade de melhorar as propriedades mecânicas dos filmes. O trabalho realizado durante este projeto dividiu-se em 5 partes: preparação do material, caracterização do material, seleção do pré-tratamento, produção de filmes e caracterização dos filmes. Foram produzidos filmes para a seleção do pré-tratamento e para a respetiva caracterização. Os pré-tratamentos testados foram: tratamento com detergente, tratamento com detergente e sulfureto de sódio e, tratamento com detergente e éter de petróleo. O pré-tratamento selecionado foi o tratamento com detergente. Para a produção de filmes para a posterior caracterização, foram escolhidos 4 conjuntos de condições operatórias diferentes: 160 oC – 147 kN – 8 min – 30% glicerol; 160 oC – 147 kN – 12 min – 30% glicerol; 160 oC – 147 kN – 8 min – 40% glicerol; 160 oC – 147 kN – 12 min – 40% glicerol; identificados como Conjuntos A, B, C e D, respetivamente. Na caracterização dos filmes foram analisados vários parâmetros, nomeadamente a espessura, a permeabilidade ao vapor de água ao vapor de água, as isotérmicas de sorção, a cor, a solubilidade e as propriedades mecânicas. Também foram feitas as análises de calorimetria diferencial de varrimento (DSC) e microscopia eletrónica de varrimento (SEM). Concluiu-se que os filmes do conjunto A (160 oC – 147 kN – 8 min – 30% glicerol) tiveram um melhor desempenho apresentando espessuras médias de 0,25 0,02 mm, permeabilidade ao vapor de água ao vapor de água igual a 1,20 x 10-8 6,79 x 10-10 g/(m.s.Pa), solubilidade igual a 27,9 0,4 %, tensão de rutura média igual a 9,23 1,19 N/mm2, deformação na rutura média igual a 1,9 0,2 % e módulo de elasticidade médio igual a 554 26 N/mm2. Verificou-se um bom ajuste do modelo de GAB aos resultados experimentais. A análise DSC indicou uma temperatura de fusão aos 170 ºC para a mistura de pelo e glicerol que não se verificou nos filmes formados e indicou a temperatura de degradação do material por volta dos 240-250 ºC. A análise SEM mostrou que os filmes não estão totalmente fundidos e provou a irregularidade da superfície dos mesmos. Provou-se que é possível a produção de filmes de pelo bovino sendo ainda necessário melhorar o processo de mistura do pelo com o glicerol.