41 resultados para second phase
em Instituto Politécnico do Porto, Portugal
Resumo:
Forest fires dynamics is often characterized by the absence of a characteristic length-scale, long range correlations in space and time, and long memory, which are features also associated with fractional order systems. In this paper a public domain forest fires catalogue, containing information of events for Portugal, covering the period from 1980 up to 2012, is tackled. The events are modelled as time series of Dirac impulses with amplitude proportional to the burnt area. The time series are viewed as the system output and are interpreted as a manifestation of the system dynamics. In the first phase we use the pseudo phase plane (PPP) technique to describe forest fires dynamics. In the second phase we use multidimensional scaling (MDS) visualization tools. The PPP allows the representation of forest fires dynamics in two-dimensional space, by taking time series representative of the phenomena. The MDS approach generates maps where objects that are perceived to be similar to each other are placed on the map forming clusters. The results are analysed in order to extract relationships among the data and to better understand forest fires behaviour.
Resumo:
This paper aims to present a multi-agent model for a simulation, whose goal is to help one specific participant of multi-criteria group decision making process.This model has five main intervenient types: the human participant, who is using the simulation and argumentation support system; the participant agents, one associated to the human participant and the others simulating the others human members of the decision meeting group; the directory agent; the proposal agents, representing the different alternatives for a decision (the alternatives are evaluated based on criteria); and the voting agent responsiblefor all voting machanisms.At this stage it is proposed a two phse algorithm. In the first phase each participantagent makes his own evaluation of the proposals under discussion, and the voting agent proposes a simulation of a voting process.In the second phase, after the dissemination of the voting results,each one ofthe partcipan agents will argue to convince the others to choose one of the possible alternatives. The arguments used to convince a specific participant are dependent on agent knowledge about that participant. This two-phase algorithm is applied iteratively.
Resumo:
Dissertação de Mestrado apresentado ao Instituto de Contabilidade e Administração do obtenção do grau de Mestre em Auditoria Auditoria, sob orientação de Adalmiro Álvaro Malheiro de Castro Andrade
Resumo:
Mestrado em Engenharia Electrotécnica e de Computadores. Área de Especialização de Automação e Sistemas.
Resumo:
O presente trabalho teve como principais objectivos, estudar e optimizar o processo de tratamento do efluente proveniente das máquinas da unidade Cold-press da linha de produção da Empresa Swedwood, caracterizar a solução límpida obtida no tratamento e estudar a sua integração no processo, e por fim caracterizar o resíduo de pasta de cola obtido no tratamento e estudar a possível valorização energética deste resíduo. Após caracterização inicial do efluente e de acordo com os resultados de um estudo prévio solicitado pela Empresa Swedwood a uma empresa externa, decidiu-se iniciar o estudo de tratabilidade do efluente pelo processo físico-químico a coagulação/floculação. No processo de coagulação/floculação estudou-se a aplicabilidade, através de ensaios Jar-test, dos diferentes agentes de coagulação/floculação: a soda cáustica, a cal, o cloreto férrico e o sulfato de alumínio. Os melhores resultados neste processo foram obtidos com a adição de uma dose de cal de 500 mg/Lefluente, seguida da adição de 400 mg/Lefluente de sulfato de alumínio. Contudo, após este tratamento o clarificado obtido não possuía as características necessárias para a sua reintrodução no processo fabril nem para a sua descarga em meio hídrico. Deste modo procedeu-se ao estudo de tratamentos complementares. Nesta segunda fases de estudo testaram-se os seguintes os tratamentos: a oxidação química por Reagente de Fenton, o tratamento biológico por SBR (sequencing batch reactor) e o leito percolador. Da análise dos resultados obtidos nos diferentes tratamentos conclui-se que o tratamento mais eficaz foi o tratamento biológico por SBR com adição de carvão activado. Prevê-se que no final do processo de tratamento o clarificado obtido possa ser descarregado em meio hídrico ou reintroduzido no processo. Como o estudo apenas foi desenvolvido à escala laboratorial, seria útil poder validar os resultados numa escala piloto antes da sua implementação industrial. A partir dos resultados do estudo experimental, procedeu-se ao dimensionamento de uma unidade de tratamento físico-químico e biológico à escala industrial para o tratamento de 20 m3 de efluente produzido na fábrica, numa semana. Dimensionou-se ainda a unidade (leito de secagem) para tratamento das lamas produzidas. Na unidade de tratamento físico-químico (coagulação/floculação) os decantadores estáticos devem possuir o volume útil de 4,8 m3. Sendo necessários semanalmente 36 L da suspensão de cal (Neutrolac 300) e 12,3 L da solução de sulfato de alumínio a 8,3%. Os tanques de armazenamento destes compostos devem possuir 43,2 litros e 96 litros, respectivamente. Nesta unidade estimou-se que são produzidos diariamente 1,4 m3 de lamas. Na unidade de tratamento biológico o reactor biológico deve possuir um volume útil de 6 m3. Para que este processo seja eficaz é necessário fornecer diariamente 2,1 kg de oxigénio. Estima-se que neste processo será necessário efectuar a purga de 325 litros de lamas semanalmente. No final da purga repõe-se o carvão activado, que poderá ser arrastado juntamente com as lamas, adicionando-se 100 mg de carvão por litro de licor misto. De acordo com o volume de lamas produzidos em ambos os tratamentos a área mínima necessária para o leito de secagem é de cerca de 27 m2. A análise económica efectuada mostra que a aquisição do equipamento tem o custo de 22.079,50 euros, o custo dos reagentes necessários neste processo para um ano de funcionamento tem um custo total de 508,50 euros e as necessidades energéticas de 2.008,45 euros.
Resumo:
Na Fábrica de Papel da Ponte Redonda fabricam-se sacos de papel multi-folhas e papel reciclado do tipo Kraft. Tendo em consideração a primeira actividade, é de grande interesse optimizar o processo de fabrico de papel com vista a incorporara a máxima taxa de papel produzido internamente nas diferentes camadas dos sacos de papel. Os papéis de maior interesse são os do tipo Fluting e Liners, tendo sido produzidos em 2010 um total de 4,9 mil toneladas, ou seja 90% de todo o papel fabricado em 2010, correspondendo a a 4 mil toneladas de papéis do tipo Liners e 0,9 mil toneladas para os papéis do tipo Fluting. Nos papéis do tipo Liners incluem-se os papéis do tipo Test-Liner e Kraft-Liner, representando em termos produtivos valores idênticos. No âmbito deste trabalho, em que se pretendeu controlar as águas do processo e optimizar a produção de papel, foram introduzidos uma unidade de flutuação e um sistema que permitisse regular a consistência da suspensão fibrosa à entrada da máquina do papel, e foram ainda estudadas as possibilidades de adição de produtos químicos para melhorar as características da pasta assim como um tratamento microbiológico mais eficaz para todo o processo. Para se avaliar se as medidas implementadas teriam um impacto positivo na qualidade desses dois tipos de papéis, desenvolveu-se o trabalho em duas fases: a primeira envolve a introdução de um sistema de flutuação e de um sistema de controlo de consistência da pasta, assim como a selecção de produtos químicos a adicionar ao processo. A segunda fase consistiu na avaliação do efeito destas medidas nas características do papel fabricado. Para o efeito foram escolhidos dois tipos de papel e de diferentes gramagens, nomeadamente Test-Liner de 80 g/m2 e Fluting de 110 g/m2. Introduziu-se um flutuador com o objectivo de tratar parte das águas do processo de fabrico com vista a serem reutilizadas em determinadas aplicações possíveis para a qualidade da água obtida (lavagens e água do processo), de modo a conseguir-se uma poupança de água, assim como aproveitar-se as lamas resultantes, ricas em fibra de celulose, para utilizá-las como matéria-prima. Foi introduzido um regulador de consistência no processo da Ponte Redonda com o objectivo de alimentar de uma forma constante a consistência da pasta à entrada da máquina do papel proporcionando uma melhor formação da folha, devido à ligação entre fibras, na direcção máquina e direcção transversal. Esse sistema inovador é um Regulador de Consistência que vem proporcionar à máquina do papel uma alimentação em fibra mais constante. O fabrico de papel apenas a partir de fibras de celulose não permitirá obter um papel com as características desejadas para a sua utilização. Para corrigir estas deficiências, são adicionados produtos químicos para atribuir ou melhorar as propriedades dos papéis. Desta forma considerou-se interessante introduzir no processo um agente de retenção numa fase posterior à preparação da pasta e antes da chegada à máquina de papel, de forma a melhorar as características da suspensão fibrosa. Assim foi implementado um sistema cuja eficácia foi avaliada. Concluiu-se que com a sua implementação a máquina de papel apresentou melhores resultados na drenagem e na turbidez da água removida, significando uma água com menor teor de matéria suspensa e dissolvida, devido à melhor agregação das fibras dispersas na suspensão fibrosa, levando a um aumento da drenagem e consequentemente melhor eficiência das prensas e secaria. Foi também elaborado um estudo para introdução de um sistema de tratamento microbiológico em todo o processo de fabrico de papel, devido à existência de microorganismos prejudiciais ao seu fabrico. Concluiu-se que a água clarificada proveniente do flutuador apresentou qualidade aceitável para os objectivos pretendidos. No entanto, considerando a eficiência de 26,5% na remoção de sólidos suspensos será necessário mais algum tempo de utilização da água clarificada, cerca de um ano, para avaliar se esta terá algum efeito prejudicial nos equipamentos. Verificou-se que devido à existência de microrganismos em todo o processo de fabrico de papel será necessário efectuar lavagens aos tinões, tanques e circuitos com alguma regularidade, aproveitando-se as paragens do processo assim como implementar um sistema de tratamento microbiológico mais eficaz. Em resultado das medidas implementadas concluiu-se que os papéis produzidos apresentaram melhorias, tendo-se obtido melhores resultados em todos os ensaios de resistência. No papel do tipo Test-Liner destacam-se os bons resultados nos ensaios de superfície, Cobb60 e rebentamento. No caso do parâmetro do Cobb60, foi um resultado surpreendente visto que por norma este tipo de papéis reciclados não suportam este ensaio. Concluiu-se também que as medidas implementadas proporcionaram uma melhor agregação e ligação entre fibras, e melhor formação da folha na máquina do papel proporcionando aos papéis propriedades físico-mecânicas mais interessantes.
Resumo:
Esta dissertação propõe o desenvolvimento de um sistema capaz de adquirir e monitorizar num computador o sinal do electrocardiograma (ECG) e de detectar o pico R do complexo QRS do referido sinal. Numa primeira fase foi efectuado um estudo do sistema cardiovascular, de forma a compreender a actividade eléctrica do coração e dos diversos sinais que constituem o ECG. Foi efectuado um estudo sobre o sinal ECG, tendo sido estudadas as suas características, bem como técnicas e componentes básicos de aquisição e condicionamento do sinal, sendo também analisados diversos sistemas que efectuam a aquisição de ECG. Numa segunda fase foram estudadas as Field Programmable Analog Array (FPAA), analisando o estado da arte desta tecnologia, bem como os dispositivos disponíveis comercialmente. Após esta análise foram seleccionados os dispositivos FPAA, bem como o restante hardware e software necessários para a realização desta Tese. Foi desenvolvido um sistema de condicionamento de sinal ECG, e de detecção de pico R do complexo QRS, apenas com componentes analógicos discretos tendo sido analisados os resultados obtidos antes de se avançar para a fase seguinte. Após a realização do sistema com componentes discretos, foi implementado um sistema em que grande parte do condicionamento do sinal ECG é efectuado por duas placas de desenvolvimento FPAA, de forma a diminuir a quantidade de componentes e a obter um sinal com melhor resolução. Os resultados obtidos foram analisados e comparados com o sistema desenvolvido. Para monitorizar o sinal ECG e o pico R num computador, foi desenvolvido um sistema em que os sinais são convertidos pelo conversor A/D de um microcontrolador, e enviados por comunicação série para um computador, sendo os valores obtidos visualizados numa aplicação em ambiente MATLAB.
Resumo:
Modern multicore processors for the embedded market are often heterogeneous in nature. One feature often available are multiple sleep states with varying transition cost for entering and leaving said sleep states. This research effort explores the energy efficient task-mapping on such a heterogeneous multicore platform to reduce overall energy consumption of the system. This is performed in the context of a partitioned scheduling approach and a very realistic power model, which improves over some of the simplifying assumptions often made in the state-of-the-art. The developed heuristic consists of two phases, in the first phase, tasks are allocated to minimise their active energy consumption, while the second phase trades off a higher active energy consumption for an increased ability to exploit savings through more efficient sleep states. Extensive simulations demonstrate the effectiveness of the approach.
Resumo:
Stock market indices SMIs are important measures of financial and economical performance. Considerable research efforts during the last years demonstrated that these signals have a chaotic nature and require sophisticated mathematical tools for analyzing their characteristics. Classical methods, such as the Fourier transform, reveal considerable limitations in discriminating different periods of time. This paper studies the dynamics of SMI by combining the wavelet transform and the multidimensional scaling MDS . Six continuous wavelets are tested for analyzing the information content of the stock signals. In a first phase, the real Shannon wavelet is adopted for performing the evaluation of the SMI dynamics, while their comparison is visualized by means of the MDS. In a second phase, the other wavelets are also tested, and the corresponding MDS plots are analyzed.
Resumo:
Dissertação apresentada na Universidade do Minho com vista à obtenção do grau de Doutor em Tecnologias e Sistemas de Informação (Engenharia e Gestão de Sistemas de Informação)
Resumo:
Indoor location systems cannot rely on technologies such as GPS (Global Positioning System) to determine the position of a mobile terminal, because its signals are blocked by obstacles such as walls, ceilings, roofs, etc. In such environments. The use of alternative techniques, such as the use of wireless networks, should be considered. The location estimation is made by measuring and analysing one of the parameters of the wireless signal, usually the received power. One of the techniques used to estimate the locations using wireless networks is fingerprinting. This technique comprises two phases: in the first phase data is collected from the scenario and stored in a database; the second phase consists in determining the location of the mobile node by comparing the data collected from the wireless transceiver with the data previously stored in the database. In this paper an approach for localisation using fingerprinting based on Fuzzy Logic and pattern searching is presented. The performance of the proposed approach is compared with the performance of classic methods, and it presents an improvement between 10.24% and 49.43%, depending on the mobile node and the Fuzzy Logic parameters.ł
Resumo:
This paper presents a fractional calculus perspective in the study of signals captured during the movement of a mechanical manipulator carrying a liquid container. In order to study the signals an experimental setup is implemented. The system acquires data from the sensors, in real time, and, in a second phase, processes them through an analysis package. The analysis package runs off-line and handles the recorded data. The results show that the Fourier spectrum of several signals presents a fractional behavior. The experimental study provides useful information that can assist in the design of a control system and the trajectory planning to be used in reducing or eliminating the effect of vibrations.
Resumo:
The goal of this study is the analysis of the dynamical properties of financial data series from worldwide stock market indexes during the period 2000–2009. We analyze, under a regional criterium, ten main indexes at a daily time horizon. The methods and algorithms that have been explored for the description of dynamical phenomena become an effective background in the analysis of economical data. We start by applying the classical concepts of signal analysis, fractional Fourier transform, and methods of fractional calculus. In a second phase we adopt the multidimensional scaling approach. Stock market indexes are examples of complex interacting systems for which a huge amount of data exists. Therefore, these indexes, viewed from a different perspectives, lead to new classification patterns.
Resumo:
This study addresses the optimization of fractional algorithms for the discrete-time control of linear and non-linear systems. The paper starts by analyzing the fundamentals of fractional control systems and genetic algorithms. In a second phase the paper evaluates the problem in an optimization perspective. The results demonstrate the feasibility of the evolutionary strategy and the adaptability to distinct types of systems.
Resumo:
The goal of this study is the analysis of the dynamical properties of financial data series from worldwide stock market indices. We analyze the Dow Jones Industrial Average ( ∧ DJI) and the NASDAQ Composite ( ∧ IXIC) indexes at a daily time horizon. The methods and algorithms that have been explored for description of physical phenomena become an effective background, and even inspiration, for very productive methods used in the analysis of economical data. We start by applying the classical concepts of signal analysis, Fourier transform, and methods of fractional calculus. In a second phase we adopt a pseudo phase plane approach.