930 resultados para adaptive backstepping droop controller design
Resumo:
Wireless body area networks (WBANs) are expected to play a significant role in smart healthcare systems. One of the most important attributes of WBANs is to increase network lifetime by introducing novel and low-power techniques on the energy-constrained sensor nodes. Medium access control (MAC) protocols play a significant role in determining the energy consumption in WBANs. Existing MAC protocols are unable to accommodate communication requirements in WBANs. There is a need to develop novel, scalable and reliable MAC protocols that must be able to address all these requirements in a reliable manner. In this special issue, we attracted high quality research and review papers on the recent advances in MAC protocols for WBANs.
Resumo:
Este working paper centra-se no desenvolvimento das técnicas de edição de documentos ou publicações, que têm conhecido um incremento espectacular na última década. Os avanços e descobertas mais significativas entre 1450 e 1986, eclipsam-se praticamente, quando comparados com as grandes modificações dos últimos sete anos (isto é a História da auto-edição e si). Desde o aparecimento do primeiro programa de auto-edição e da primeira impressora laser, dotada de um intérprete postscript, até hoje, a evolução e aperfeiçoamento tanto do software como do hardware tem sido tanta, continuando a fazer-se a um tal ritmo, que se tornou irreversível.
Resumo:
This paper addresses the challenging task of computing multiple roots of a system of nonlinear equations. A repulsion algorithm that invokes the Nelder-Mead (N-M) local search method and uses a penalty-type merit function based on the error function, known as 'erf', is presented. In the N-M algorithm context, different strategies are proposed to enhance the quality of the solutions and improve the overall efficiency. The main goal of this paper is to use a two-level factorial design of experiments to analyze the statistical significance of the observed differences in selected performance criteria produced when testing different strategies in the N-M based repulsion algorithm. The main goal of this paper is to use a two-level factorial design of experiments to analyze the statistical significance of the observed differences in selected performance criteria produced when testing different strategies in the N-M based repulsion algorithm.
Resumo:
For efficient planning of waste collection routing, large municipalities may be partitioned into convenient sectors. The real case under consideration is the municipality of Monção, in Portugal. Waste collection involves more than 1600 containers over an area of 220 km2 and a population of around 20,000 inhabitants. This is mostly a rural area where the population is distributed in small villages around the 33 boroughs centres (freguesia) that constitute the municipality. In most freguesias, waste collection is usually conducted 3 times a week. However, there are situations in which the same collection is done every day. The case reveals some general and specific characteristics which are not rare, but are not widely addressed in the literature. Furthermore, new methods and models to deal with sectorization and routing are introduced, which can be extended to other applications. Sectorization and routing are tackled following a three-phase approach. The first phase, which is the main concern of the presentation, introduces a new method for sectorization inspired by Electromagnetism and Coulomb’s Law. The matter is not only about territorial division, but also the frequency of waste collection, which is a critical issue in these types of applications. Special characteristics related to the number and type of deposition points were also a motivation for this work. The second phase addresses the routing problems in each sector: new Mixed Capacitated Arc Routing with Limited Multi-Landfills models will be presented. The last phase integrates Sectoring and Routing. Computational results confirm the effectiveness of the entire novel approach.
Resumo:
No nosso contexto hiper-moderno, há factores que influenciam a nossa percepção e consequente grau de afeição ou rejeição para com as entidades. Pese embora o facto de que a marca gráfica (desvinculada do signo tipográfico) ser uma parcela dentro do conjunto maior do design de identidade, esta merece ser estudada na actual conjuntura: uma conjuntura onde está presente uma crise financeira e social, com altos níveis de desemprego e situações que, embora não sendo nefastas, não devem ser ignoradas – como é o caso da crescente criação de identidades em outsourcing ou da maior acessibilidade aos computadores e processos criativos por parte de designers e não designers. O nosso principal objectivo é o de criar um um manual de práticas compilando uma gramática da marca gráfica que a explicite aos jovens designers. Já verificamos que esta ferramenta pode ser transferida para conceber e analisar outros artefactos gráficos. Pretendemos examinar se são válidos na contemporaneidade os axiomas da gestalt ou os preceitos formulados nos anos 50/60 como os de Jacques Bertin, continuando a ser uma boa base no processo de criação e percepção das marcas gráficas. Com a mudança de paradigmas que as novas tecnologias forjaram no zeitgeist do design e na actual conjuntura, procuramos confirmar se esses preceitos são válidos tanto nas marcas intemporais como nas marcas contemporâneas e fluídas, e criar uma ferramenta pedagógica que contribua para implementar uma literacia visual que descodifique este signo icónico, dentro desta nova realidade. Nela, com o acesso aos novos meios digitais, de interacção e colaboração, surgem expressões emotivas por parte de designers, estudantes e utilizadores nos sites da especialidade, sobre marcas gráficas, provando o interesse no objectivo deste projecto em curso.
Resumo:
Optimization methods have been used in many areas of knowledge, such as Engineering, Statistics, Chemistry, among others, to solve optimization problems. In many cases it is not possible to use derivative methods, due to the characteristics of the problem to be solved and/or its constraints, for example if the involved functions are non-smooth and/or their derivatives are not know. To solve this type of problems a Java based API has been implemented, which includes only derivative-free optimization methods, and that can be used to solve both constrained and unconstrained problems. For solving constrained problems, the classic Penalty and Barrier functions were included in the API. In this paper a new approach to Penalty and Barrier functions, based on Fuzzy Logic, is proposed. Two penalty functions, that impose a progressive penalization to solutions that violate the constraints, are discussed. The implemented functions impose a low penalization when the violation of the constraints is low and a heavy penalty when the violation is high. Numerical results, obtained using twenty-eight test problems, comparing the proposed Fuzzy Logic based functions to six of the classic Penalty and Barrier functions are presented. Considering the achieved results, it can be concluded that the proposed penalty functions besides being very robust also have a very good performance.
Resumo:
In this paper, a module for homograph disambiguation in Portuguese Text-to-Speech (TTS) is proposed. This module works with a part-of-speech (POS) parser, used to disambiguate homographs that belong to different parts-of-speech, and a semantic analyzer, used to disambiguate homographs which belong to the same part-of-speech. The proposed algorithms are meant to solve a significant part of homograph ambiguity in European Portuguese (EP) (106 homograph pairs so far). This system is ready to be integrated in a Letter-to-Sound (LTS) converter. The algorithms were trained and tested with different corpora. The obtained experimental results gave rise to 97.8% of accuracy rate. This methodology is also valid for Brazilian Portuguese (BP), since 95 homographs pairs are exactly the same as in EP. A comparison with a probabilistic approach was also done and results were discussed.
Resumo:
In this work an adaptive modeling and spectral estimation scheme based on a dual Discrete Kalman Filtering (DKF) is proposed for speech enhancement. Both speech and noise signals are modeled by an autoregressive structure which provides an underlying time frame dependency and improves time-frequency resolution. The model parameters are arranged to obtain a combined state-space model and are also used to calculate instantaneous power spectral density estimates. The speech enhancement is performed by a dual discrete Kalman filter that simultaneously gives estimates for the models and the signals. This approach is particularly useful as a pre-processing module for parametric based speech recognition systems that rely on spectral time dependent models. The system performance has been evaluated by a set of human listeners and by spectral distances. In both cases the use of this pre-processing module has led to improved results.
Resumo:
In this work an adaptive filtering scheme based on a dual Discrete Kalman Filtering (DKF) is proposed for Hidden Markov Model (HMM) based speech synthesis quality enhancement. The objective is to improve signal smoothness across HMMs and their related states and to reduce artifacts due to acoustic model's limitations. Both speech and artifacts are modelled by an autoregressive structure which provides an underlying time frame dependency and improves time-frequency resolution. Themodel parameters are arranged to obtain a combined state-space model and are also used to calculate instantaneous power spectral density estimates. The quality enhancement is performed by a dual discrete Kalman filter that simultaneously gives estimates for the models and the signals. The system's performance has been evaluated using mean opinion score tests and the proposed technique has led to improved results.
Resumo:
The inter-disciplinarity of information systems, applied discipline and activity of design, and the study from different paradigms perspectives explains the diversity of problems addressed. The context is broad and includes important issues beyond technology, as the application, use, effectiveness, efficiency and their organizational and social impacts. In design science, the research interest is in contributing to the improvement of the processes of the design activity itself. The relevance of research in design science is associated with the result obtained for the improvement of living conditions in organizational, inter-organizational and Society contexts. In the research whose results are artifacts, the adoption of design research as a process of research is crucial to ensure discipline, rigor and transparency. Based on a literature review, this paper clarifies the terms of design science and design research. This is the main motivation for presenting this paper, determinant for the phase in research in technologies and information systems which are the three research projects presented. As a result the three projects are discussed in relation to the concepts of design science and design research.
Resumo:
In a scientific research project is important to define the underlying philosophical orientation of the project, because this will influence the choices made in respect of scientific methods used, as well as the way they will be applied. It is crucial, therefore, that the philosophy and research design strategy are consistent with each other. These questions become even more relevant in qualitative research. Historically, the interpretive research philosophy is more associated to the scientific areas of social sciences and humanities where the subjectivity inherent to human intervention is more explicitly defined. Information systems field are, primarily, trapped in computer science field, though it also integrates issues related with management and organizations field. This shift from a purely technological guidance for the consideration of the problems of management and organizations has fostered the rise of research projects according to the interpretive philosophy and using qualitative methods. This paper explores the importance of alignment between the epistemological orientation and research design strategy, in qualitative research projects. As a result, it is presented two PhD projects, with different research design strategies, that are being developed in the technology and information systems field, in the light of the interpretive paradigm.
Resumo:
A crescente necessidade de meios de inspecção e recolha de informação de infraestruturas e do meio ambiente natural, origina o recurso a meios tecnológicos cada vez mais evoluídos. Neste contexto, os robôs móveis autónomos aéreos surgem como uma ferramenta importante. Em particular, os veículos aéreos de asa móvel, pela sua manobrabilidade e controlo podem-se utilizar eficazmente em meios complexos como cenários interiores onde o ambiente é parcialmente controlado. A sua utilização em coordenação com outros veículos robóticos móveis e em particular com a crescente autonomia de decisão, permitem uma eficiência elevada, por exemplo, em tarefas de recolha automática de informação, vigilância, apoio a comunicações, etc. A inexistência de um veículo autónomo de asa móvel no cenário multi-robótico desenvolvido pelo Laboratório de Sistemas Autónomos do Instituto Superior de Engenharia do Porto, aliada às suas aplicações referidas, criou a necessidade do desenvolvimento de um veículo desta gama. Identificou-se, pois, o desenvolvimento de um veículo autónomo aéreo do tipo quadrotor com capacidade de vôo base estabilizado como o problema a resolver. Foi efectuado um levantamento de requisitos do sistema, a caracterização de um veículo autónomo aéreo Vertical Take-off and Landing - VTOL, e efectuado um trabalho de pesquisa a fim de possibilitar o conhecimento das técnicas e tecnologias envolvidas. Tendo em vista o objectivo de controlo e estabilização do veículo, foi efectuada a modelização do sistema que serviu não só para a melhor compreensão da sua dinâmica mas também para o desenvolvimento de um simulador que possibilitou a validação de estratégias de controlo e avaliação de comportamentos do veículo para diferentes cenários. A inexistência de controladores de motores brushless adequada (frequência de controlo), originou o desenvolvimento de um controlador dedicado para motores brushless, motores esses utilizados para a propulsão do veículo. Este controlador permite uma taxa de controlo a uma frequência de 20KHz, possui múltiplas interfaces de comunicação (CAN, RS232, Ethernet, SPI e JTAG), é de reduzido peso e dimensões e modular, visto ter sido implementado em dois módulos, i.e., permite a sua utilização com diferentes interfaces de potência. Projectou-se um veículo autónomo aéreo em termos físicos com a definição da sua arquitectura de hardware e software bem como o sistema de controlo de vôo. O sistema de estabilização de vôo compreende o processamento de informação fornecida por um sistema de navegação inercial, um sonar e o envio de referências de velocidade para cada um dos nós de controlo ligados a um barramento CAN instalado no veículo. A implementação do veículo foi alcançada nas suas vertentes mecânica, de hardware e software. O UAV foi equipado com um sistema computacional dotando-o de capacidades para o desempenho de tarefas previamente analisadas. No presente trabalho, são também tiradas algumas conclusões sobre o desenvolvimento do sistema e sua implementação bem como perspectivada a sua evolução futura no contexto de missões coordenadas de múltiplos veículos robóticos.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Electrotécnica e de Computadores
Resumo:
Master’s Degree Dissertation
Resumo:
Esta tese de dissertação tem como principal objetivo a implementação de controladores fracionários utilizando diapositivos analógicos FPAA (Field Programable Analog Array). Embora estes dispositivos já não sejam um tecnologia recente, não tiveram grande aceitação comercial, daí não ter sido grande a sua evolução nesta última década. Mas para a elaboração de alguns circuitos analógicos, nomeadamente filtros, amplificadores e mesmo controladores PID (Proporcional-Integrativo-Derivativo) analógicos torna-se numa ferramenta que pode facilitar o projeto e implementação. Para a realização deste estudo, utilizou-se a placa de desenvolvimento da Anadigm AN231K04-DVLP3 juntamente com o software disponibilizado pela mesma empresa, o AnadigmDesigner2. Para a simulação e observação dos resultados foi utilizada a DAQ (Data Acquisition) Hilink da Zelton juntamente com o software Matlab. De forma a testar a implementação dos controladores fracionários nas FPAA foram realizados alguns circuitos no software e enviados para a FPAA comparando os resultados obtidos na simulação com os visualizados no osciloscópio. Por último foi projetado um controlador PIlDm recorrendo aos métodos de aproximação inteira descritos neste documento implementados na FPAA recorrendo ao uso de filtros de primeira e segunda ordem.