941 resultados para Algorithms, Properties, the KCube Graphs
Resumo:
A liberalização dos mercados de energia e a utilização intensiva de produção distribuída tem vindo a provocar uma alteração no paradigma de operação das redes de distribuição de energia elétrica. A continuidade da fiabilidade das redes de distribuição no contexto destes novos paradigmas requer alterações estruturais e funcionais. O conceito de Smart Grid vem permitir a adaptação das redes de distribuição ao novo contexto. Numa Smart Grid os pequenos e médios consumidores são chamados ao plano ativo das participações. Este processo é conseguido através da aplicação de programas de demand response e da existência de players agregadores. O uso de programas de demand response para alcançar benefícios para a rede encontra-se atualmente a ser estudado no meio científico. Porém, existe a necessidade de estudos que procurem benefícios para os pequenos e médios consumidores. O alcance dos benefícios para os pequenos e médios consumidores não é apenas vantajoso para o consumidor, como também o é para a rede elétrica de distribuição. A participação, dos pequenos e médios consumidores, em programas de demand response acontece significativamente através da redução de consumos energéticos. De modo a evitar os impactos negativos que podem provir dessas reduções, o trabalho aqui proposto faz uso de otimizações que recorrem a técnicas de aprendizagem através da utilização redes neuronais artificiais. Para poder efetuar um melhor enquadramento do trabalho com as Smart Grids, será desenvolvido um sistema multiagente capaz de simular os principais players de uma Smart Grid. O foco deste sistema multiagente será o agente responsável pela simulação do pequeno e médio consumidor. Este agente terá não só que replicar um pequeno e médio consumidor, como terá ainda que possibilitar a integração de cargas reais e virtuais. Como meio de interação com o pequeno e médio consumidor, foi desenvolvida no âmbito desta dissertação um sistema móvel. No final do trabalho obteve-se um sistema multiagente capaz de simular uma Smart Grid e a execução de programas de demand response, sSendo o agente representante do pequeno e médio consumidor capaz de tomar ações e reações de modo a poder responder autonomamente aos programas de demand response lançados na rede. O desenvolvimento do sistema permite: o estudo e análise da integração dos pequenos e médios consumidores nas Smart Grids por meio de programas de demand response; a comparação entre múltiplos algoritmos de otimização; e a integração de métodos de aprendizagem. De modo a demonstrar e viabilizar as capacidades de todo o sistema, a dissertação inclui casos de estudo para as várias vertentes que podem ser exploradas com o sistema desenvolvido.
Resumo:
As ligações adesivas têm sido cada vez mais utilizadas nos últimos anos em detrimento de outros métodos tais como a soldadura, ligações aparafusadas e ligações rebitadas. Os plásticos de Engenharia têm um papel cada vez mais preponderante na indústria, devido às suas excelentes propriedades. Neste trabalho foram considerados três polímeros diferentes, o Policloreto de Vinilo (PVC) e o Polipropileno (PP) dado o seu baixo custo e peso e a superfície quimicamente inerte e o Politetrafluoretileno (PTFE) devido às suas boas propriedades químicas e excelentes propriedades de deslizamento. No entanto, estes materiais possuem uma baixa energia de superfície e, por isso, são muito difíceis de colar com mais relevância para o PTFE. Assim, após um estudo preliminar foi escolhido, para realizar as colagens necessárias, um adesivo da Tamarron Technology “Tam Tech Adhesive”, próprio para este tipo de substratos difíceis de colar. Posteriormente foi efetuada a sua caraterização através de ensaios de provetes maciços à tração. O principal objetivo deste trabalho foi estudar juntas de sobreposição simples de materiais poliméricos difíceis de colar tais como o PTFE, PP e PVC com recurso a um adesivo que não necessitasse de preparação de superfície. Foram fabricadas juntas de sobreposição simples (JSS) segundo os métodos Lap Shear (LS) e Block Shear (BS) dos três materiais referidos anteriormente e realizados os respetivos ensaios para avaliar o comportamento mecânico das ligações adesivas. Os materiais utilizados como substratos foram também submetidos a ensaios de tração com a finalidade de obter o módulo de elasticidade e as suas propriedades de resistência. Os substratos envolvidos nas juntas adesivas não sofreram qualquer preparação especial das superfícies. Na maioria dos casos consistiu apenas numa limpeza das superfícies com álcool etílico. Contudo, para o PTFE também se experimentou a preparação por abrasão com lixa e por chama. Foi também efetuado um trabalho de simulação numérica por elementos finitos utilizando um modelo de dano coesivo triangular. As resistências ao corte obtidas são superiores em BS comparativamente a LS, exceção feita aos substratos de PTFE aonde os resultados são similares. O tratamento por chama melhorou a resistência mecânica das juntas. Verificou-se também que o modelo numérico simulou adequadamente o comportamento das juntas principalmente das LS.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Informática
Resumo:
A análise forense de documentos é uma das áreas das Ciências Forenses, responsável pela verificação da autenticidade dos documentos. Os documentos podem ser de diferentes tipos, sendo a moeda ou escrita manual as evidências forenses que mais frequentemente motivam a análise. A associação de novas tecnologias a este processo de análise permite uma melhor avaliação dessas evidências, tornando o processo mais célere. Esta tese baseia-se na análise forense de dois tipos de documentos - notas de euro e formulários preenchidos por escrita manual. Neste trabalho pretendeu-se desenvolver técnicas de processamento e análise de imagens de evidências dos tipos referidos com vista a extração de medidas que permitam aferir da autenticidade dos mesmos. A aquisição das imagens das notas foi realizada por imagiologia espetral, tendo-se definidas quatro modalidades de aquisição: luz visível transmitida, luz visível refletida, ultravioleta A e ultravioleta C. Para cada uma destas modalidades de aquisição, foram também definidos 2 protocolos: frente e verso. A aquisição das imagens dos documentos escritos manualmente efetuou-se através da digitalização dos mesmos com recurso a um digitalizador automático de um aparelho multifunções. Para as imagens das notas desenvolveram-se vários algoritmos de processamento e análise de imagem, específicos para este tipo de evidências. Esses algoritmos permitem a segmentação da região de interesse da imagem, a segmentação das sub-regiões que contém as marcas de segurança a avaliar bem como da extração de algumas características. Relativamente as imagens dos documentos escritos manualmente, foram também desenvolvidos algoritmos de segmentação que permitem obter todas as sub-regiões de interesse dos formulários, de forma a serem analisados os vários elementos. Neste tipo de evidências, desenvolveu-se ainda um algoritmo de análise para os elementos correspondentes à escrita de uma sequência numérica o qual permite a obtenção das imagens correspondentes aos caracteres individuais. O trabalho desenvolvido e os resultados obtidos permitiram a definição de protocolos de aquisição de imagens destes tipos de evidências. Os algoritmos automáticos de segmentação e análise desenvolvidos ao longo deste trabalho podem ser auxiliares preciosos no processo de análise da autenticidade dos documentos, o qual, ate então, é feito manualmente. Apresentam-se ainda os resultados dos estudos feitos às diversas evidências, nomeadamente as performances dos diversos algoritmos analisados, bem como algumas das adversidades encontradas durante o processo. Apresenta-se também uma discussão da metodologia adotada e dos resultados, bem como de propostas de continuação deste trabalho, nomeadamente, a extração de características e a implementação de classificadores capazes aferir da autenticidade dos documentos.
Resumo:
Harnessing idle PCs CPU cycles, storage space and other resources of networked computers to collaborative are mainly fixated on for all major grid computing research projects. Most of the university computers labs are occupied with the high puissant desktop PC nowadays. It is plausible to notice that most of the time machines are lying idle or wasting their computing power without utilizing in felicitous ways. However, for intricate quandaries and for analyzing astronomically immense amounts of data, sizably voluminous computational resources are required. For such quandaries, one may run the analysis algorithms in very puissant and expensive computers, which reduces the number of users that can afford such data analysis tasks. Instead of utilizing single expensive machines, distributed computing systems, offers the possibility of utilizing a set of much less expensive machines to do the same task. BOINC and Condor projects have been prosperously utilized for solving authentic scientific research works around the world at a low cost. In this work the main goal is to explore both distributed computing to implement, Condor and BOINC, and utilize their potency to harness the ideal PCs resources for the academic researchers to utilize in their research work. In this thesis, Data mining tasks have been performed in implementation of several machine learning algorithms on the distributed computing environment.
Resumo:
Ammonia is an important gas in many power plants and industrial processes so its detection is of extreme importance in environmental monitoring and process control due to its high toxicity. Ammonia’s threshold limit is 25 ppm and the exposure time limit is 8 h, however exposure to 35 ppm is only secure for 10 min. In this work a brief introduction to ammonia aspects are presented, like its physical and chemical properties, the dangers in its manipulation, its ways of production and its sources. The application areas in which ammonia gas detection is important and needed are also referred: environmental gas analysis (e.g. intense farming), automotive-, chemical- and medical industries. In order to monitor ammonia gas in these different areas there are some requirements that must be attended. These requirements determine the choice of sensor and, therefore, several types of sensors with different characteristics were developed, like metal oxides, surface acoustic wave-, catalytic-, and optical sensors, indirect gas analyzers, and conducting polymers. All the sensors types are described, but more attention will be given to polyaniline (PANI), particularly to its characteristics, syntheses, chemical doping processes, deposition methods, transduction modes, and its adhesion to inorganic materials. Besides this, short descriptions of PANI nanostructures, the use of electrospinning in the formation of nanofibers/microfibers, and graphene and its characteristics are included. The created sensor is an instrument that tries to achieve a goal of the medical community in the control of the breath’s ammonia levels being an easy and non-invasive method for diagnostic of kidney malfunction and/or gastric ulcers. For that the device should be capable to detect different levels of ammonia gas concentrations. So, in the present work an ammonia gas sensor was developed using a conductive polymer composite which was immobilized on a carbon transducer surface. The experiments were targeted to ammonia measurements at ppb level. Ammonia gas measurements were carried out in the concentration range from 1 ppb to 500 ppb. A commercial substrate was used; screen-printed carbon electrodes. After adequate surface pre-treatment of the substrate, its electrodes were covered by a nanofibrous polymeric composite. The conducting polyaniline doped with sulfuric acid (H2SO4) was blended with reduced graphene oxide (RGO) obtained by wet chemical synthesis. This composite formed the basis for the formation of nanofibers by electrospinning. Nanofibers will increase the sensitivity of the sensing material. The electrospun PANI-RGO fibers were placed on the substrate and then dried at ambient temperature. Amperometric measurements were performed at different ammonia gas concentrations (1 to 500 ppb). The I-V characteristics were registered and some interfering gases were studied (NO2, ethanol, and acetone). The gas samples were prepared in a custom setup and were diluted with dry nitrogen gas. Electrospun nanofibers of PANI-RGO composite demonstrated an enhancement in NH3 gas detection when comparing with only electrospun PANI nanofibers. Was visible higher range of resistance at concentrations from 1 to 500 ppb. It was also observed that the sensor had stable, reproducible and recoverable properties. Moreover, it had better response and recovery times. The new sensing material of the developed sensor demonstrated to be a good candidate for ammonia gas determination.
Resumo:
A indústria dos curtumes é uma das indústrias mais antigas e tradicionais de Portugal e é também uma das mais poluentes. Esta indústria produz muitos resíduos sólidos, entre os quais, está o pelo de bovino. A valorização deste resíduo permite reduzir o impacto ambiental e aumentar a eco-eficiência da indústria dos curtumes. O pelo de bovino, rico em queratina, é um bom candidato para a produção de biofilmes. O objetivo deste trabalho foi a valorização de um resíduo de indústria de curtume (pelo de bovino) através da produção de filmes à base de queratina por termocompressão. Foi estudada a melhor formulação e as condições operatórias mais favoráveis com a finalidade de melhorar as propriedades mecânicas dos filmes. O trabalho realizado durante este projeto dividiu-se em 5 partes: preparação do material, caracterização do material, seleção do pré-tratamento, produção de filmes e caracterização dos filmes. Foram produzidos filmes para a seleção do pré-tratamento e para a respetiva caracterização. Os pré-tratamentos testados foram: tratamento com detergente, tratamento com detergente e sulfureto de sódio e, tratamento com detergente e éter de petróleo. O pré-tratamento selecionado foi o tratamento com detergente. Para a produção de filmes para a posterior caracterização, foram escolhidos 4 conjuntos de condições operatórias diferentes: 160 oC – 147 kN – 8 min – 30% glicerol; 160 oC – 147 kN – 12 min – 30% glicerol; 160 oC – 147 kN – 8 min – 40% glicerol; 160 oC – 147 kN – 12 min – 40% glicerol; identificados como Conjuntos A, B, C e D, respetivamente. Na caracterização dos filmes foram analisados vários parâmetros, nomeadamente a espessura, a permeabilidade ao vapor de água ao vapor de água, as isotérmicas de sorção, a cor, a solubilidade e as propriedades mecânicas. Também foram feitas as análises de calorimetria diferencial de varrimento (DSC) e microscopia eletrónica de varrimento (SEM). Concluiu-se que os filmes do conjunto A (160 oC – 147 kN – 8 min – 30% glicerol) tiveram um melhor desempenho apresentando espessuras médias de 0,25 0,02 mm, permeabilidade ao vapor de água ao vapor de água igual a 1,20 x 10-8 6,79 x 10-10 g/(m.s.Pa), solubilidade igual a 27,9 0,4 %, tensão de rutura média igual a 9,23 1,19 N/mm2, deformação na rutura média igual a 1,9 0,2 % e módulo de elasticidade médio igual a 554 26 N/mm2. Verificou-se um bom ajuste do modelo de GAB aos resultados experimentais. A análise DSC indicou uma temperatura de fusão aos 170 ºC para a mistura de pelo e glicerol que não se verificou nos filmes formados e indicou a temperatura de degradação do material por volta dos 240-250 ºC. A análise SEM mostrou que os filmes não estão totalmente fundidos e provou a irregularidade da superfície dos mesmos. Provou-se que é possível a produção de filmes de pelo bovino sendo ainda necessário melhorar o processo de mistura do pelo com o glicerol.
Resumo:
This article investigates the limit cycle (LC) prediction of systems with backlash by means of the describing function (DF) when using discrete fractional-order (FO) algorithms. The DF is an approximate method that gives good estimates of LCs. The implementation of FO controllers requires the use of rational approximations, but such realizations produce distinct dynamic types of behavior. This study analyzes the accuracy in the prediction of LCs, namely their amplitude and frequency, when using several different algorithms. To illustrate this problem we use FO-PID algorithms in the control of systems with backlash.
Resumo:
13th IEEE/IFIP International Conference on Embedded and Ubiquitous Computing (EUC 2015). 21 to 23, Oct, 2015, Session W1-A: Multiprocessing and Multicore Architectures. Porto, Portugal.
Resumo:
This paper analyzes the performance of two cooperative robot manipulators. In order to capture the working performancewe formulated several performance indices that measure the manipulability, the effort reduction and the equilibrium between the two robots. In this perspective the proposed indices we determined the optimal values for the system parameters. Furthermore, it is studied the implementation of fractional-order algorithms in the position/force control of two cooperative robotic manipulators holding an object.
Resumo:
A Computação Evolutiva enquadra-se na área da Inteligência Artificial e é um ramo das ciências da computação que tem vindo a ser aplicado na resolução de problemas em diversas áreas da Engenharia. Este trabalho apresenta o estado da arte da Computação Evolutiva, assim como algumas das suas aplicações no ramo da eletrónica, denominada Eletrónica Evolutiva (ou Hardware Evolutivo), enfatizando a síntese de circuitos digitais combinatórios. Em primeiro lugar apresenta-se a Inteligência Artificial, passando à Computação Evolutiva, nas suas principais vertentes: os Algoritmos Evolutivos baseados no processo da evolução das espécies de Charles Darwin e a Inteligência dos Enxames baseada no comportamento coletivo de alguns animais. No que diz respeito aos Algoritmos Evolutivos, descrevem-se as estratégias evolutivas, a programação genética, a programação evolutiva e com maior ênfase, os Algoritmos Genéticos. Em relação à Inteligência dos Enxames, descreve-se a otimização por colônia de formigas e a otimização por enxame de partículas. Em simultâneo realizou-se também um estudo da Eletrónica Evolutiva, explicando sucintamente algumas das áreas de aplicação, entre elas: a robótica, as FPGA, o roteamento de placas de circuito impresso, a síntese de circuitos digitais e analógicos, as telecomunicações e os controladores. A título de concretizar o estudo efetuado, apresenta-se um caso de estudo da aplicação dos algoritmos genéticos na síntese de circuitos digitais combinatórios, com base na análise e comparação de três referências de autores distintos. Com este estudo foi possível comparar, não só os resultados obtidos por cada um dos autores, mas também a forma como os algoritmos genéticos foram implementados, nomeadamente no que diz respeito aos parâmetros, operadores genéticos utilizados, função de avaliação, implementação em hardware e tipo de codificação do circuito.
Resumo:
In order to decrease the risk of severe wildfire, prescribed fire has recently been adopted in Portugal and elsewhere in the Mediterranean as a major tool for reducing the fuel load instead of manual or mechanical removal of vegetation. There has been some research into its impact on soils in shrublands and grasslands, but to date little research has been conducted in forested areas in the region. As a result, the impact of prescribed fire on the physico-chemical soil characteristics of forest soils has been assumed to be minimal, but this has not been demonstrated. In this study, we present the results of a monitoring campaign of a detailed pre- and post-prescribed fire assessment of soil properties in a long-unburnt P. pinaster plantation, NW Portugal. The soil characteristics examined were pH, total porosity, bulk density, moisture content, organic matter content and litter/ash quantity. The results show that there was no significant impact on the measured soil properties, the only effect being confined to minor changes in the upper 1 cm of soil. We conclude that provided the fire is carried out according to strict guidelines in P. pinaster forest, a minimal impact on soil properties can be expected.
Resumo:
5th International Conference of Fire Effects on Soil Properties
Resumo:
Context-aware recommendation of personalised tourism resources is possible because of personal mobile devices and powerful data filtering algorithms. The devices contribute with computing capabilities, on board sensors, ubiquitous Internet access and continuous user monitoring, whereas the filtering algorithms provide the ability to match the profile (interests and the context) of the tourist against a large knowledge bases of tourism resources. While, in terms of technology, personal mobile devices can gather user-related information, including the user context and access multiple data sources, the creation and maintenance of an updated knowledge base of tourism-related resources requires a collaborative approach due to the heterogeneity, volume and dynamic nature of the resources. The current PhD thesis aims to contribute to the solution of this problem by adopting a Crowdsourcing approach for the collaborative maintenance of the knowledge base of resources, Trust and Reputation for the validation of uploaded resources as well as publishers, Big Data for user profiling and context-aware filtering algorithms for the personalised recommendation of tourism resources.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Biomédica