94 resultados para Extensive Bloom
Resumo:
The differentiation of non-integer order has its origin in the seventeenth century, but only in the last two decades appeared the first applications in the area of control theory. In this paper we consider the study of a heat diffusion system based on the application of the fractional calculus concepts. In this perspective, several control methodologies are investigated namely the fractional PID and the Smith predictor. Extensive simulations are presented assessing the performance of the proposed fractional-order algorithms.
Resumo:
O tratamento das águas residuais é uma matéria de extrema importância para o município da Póvoa de Varzim, não só por uma questão de saúde pública e conservação do meio ambiente como também pela vertente turística deste concelho, que tem na sua orla costeira seis praias às quais foram atribuídas bandeiras azuis pela sua qualidade. O concelho da Póvoa de Varzim engloba doze freguesias e possui quinze estações de tratamento de águas residuais (ETARs), sendo catorze delas compactas. O seu controlo é assegurado pela divisão de saneamento básico da câmara municipal da Póvoa de Varzim. O objetivo deste trabalho foi o diagnóstico de funcionamento das ETARs do município tendo em vista a identificação dos problemas existentes e a sua resolução/otimização. De forma a poder identificar o princípio de funcionamento e a presença de anomalias nas estações de tratamento, foram realizadas várias visitas a cada uma delas ao longo do período de estágio. A recolha de amostras para análises dos diferentes parâmetros foi feita por um funcionário e estas foram enviadas para o laboratório com parceria com a Câmara Municipal. Após uma extensa recolha de informação no local e de um estudo exaustivo de toda a documentação associada a cada ETAR concluiu-se que apenas quatro delas apresentavam problemas revelantes. As ETARs do parque industrial de Laúndos e do centro histórico de Rates apresentam caudais de admissão bastante elevados devido à descarga pontual de camiões cisterna o que faz com que o tratamento não seja eficaz. Como solução sugeriu-se a construção de um tanque de equalização em ambas as ETARs, com agitador e regulador de caudal, de forma a garantir, respetivamente, a mistura e uniformização das águas residuais domésticas e industriais e que apenas será bombeado o caudal adequado para tratamento. As ETARs da Incondave e das Fontaínhas apresentam sobretudo anomalias a nível do equipamento, o que leva a um mau desempenho da instalação. Aconselhou-se o conserto dos equipamentos danificados e uma inspeção mais frequente das instalações para que mal ocorra uma avaria, esta seja reparada o mais depressa possível. O estágio na câmara municipal da Póvoa de Varzim (CMPV) teve a duração de 10 meses, entre Outubro e Julho de 2012 e foi realizado no âmbito da disciplina de dissertação/ estágio do mestrado de tecnologias de proteção ambiental no Instituto Superior de Engenharia do Porto. Este estágio foi uma mais-valia para mim na medida em que pude consolidar os conhecimentos adquiridos ao longo de todo o meu percurso académico e conhecer a realidade do mercado de trabalho.
Resumo:
This paper presents an optimization approach for the job shop scheduling problem (JSSP). The JSSP is a difficult problem in combinatorial optimization for which extensive investigation has been devoted to the development of efficient algorithms. The proposed approach is based on a genetic algorithm technique. The scheduling rules such as SPT and MWKR are integrated into the process of genetic evolution. The chromosome representation of the problem is based on random keys. The schedules are constructed using a priority rule in which the priorities and delay times of the operations are defined by the genetic algorithm. Schedules are constructed using a procedure that generates parameterized active schedules. After a schedule is obtained a local search heuristic is applied to improve the solution. The approach is tested on a set of standard instances taken from the literature and compared with other approaches. The computation results validate the effectiveness of the proposed approach.
Resumo:
Na atualidade, está a emergir um novo paradigma de interação, designado por Natural User Interface (NUI) para reconhecimento de gestos produzidos com o corpo do utilizador. O dispositivo de interação Microsoft Kinect foi inicialmente concebido para controlo de videojogos, para a consola Xbox360. Este dispositivo demonstra ser uma aposta viável para explorar outras áreas, como a do apoio ao processo de ensino e de aprendizagem para crianças do ensino básico. O protótipo desenvolvido visa definir um modo de interação baseado no desenho de letras no ar, e realizar a interpretação dos símbolos desenhados, usando os reconhecedores de padrões Kernel Discriminant Analysis (KDA), Support Vector Machines (SVM) e $N. O desenvolvimento deste projeto baseou-se no estudo dos diferentes dispositivos NUI disponíveis no mercado, bibliotecas de desenvolvimento NUI para este tipo de dispositivos e algoritmos de reconhecimento de padrões. Com base nos dois elementos iniciais, foi possível obter uma visão mais concreta de qual o hardware e software disponíveis indicados à persecução do objetivo pretendido. O reconhecimento de padrões constitui um tema bastante extenso e complexo, de modo que foi necessária a seleção de um conjunto limitado deste tipo de algoritmos, realizando os respetivos testes por forma a determinar qual o que melhor se adequava ao objetivo pretendido. Aplicando as mesmas condições aos três algoritmos de reconhecimento de padrões permitiu avaliar as suas capacidades e determinar o $N como o que apresentou maior eficácia no reconhecimento. Por último, tentou-se averiguar a viabilidade do protótipo desenvolvido, tendo sido testado num universo de elementos de duas faixas etárias para determinar a capacidade de adaptação e aprendizagem destes dois grupos. Neste estudo, constatou-se um melhor desempenho inicial ao modo de interação do grupo de idade mais avançada. Contudo, o grupo mais jovem foi revelando uma evolutiva capacidade de adaptação a este modo de interação melhorando progressivamente os resultados.
Resumo:
XML Schema is one of the most used specifications for defining types of XML documents. It provides an extensive set of primitive data types, ways to extend and reuse definitions and an XML syntax that simplifies automatic manipulation. However, many features that make XML Schema Definitions (XSD) so interesting also make them rather cumbersome to read. Several tools to visualize and browse schema definitions have been proposed to cope with this issue. The novel approach proposed in this paper is to base XSD visualization and navigation on the XML document itself, using solely the web browser, without requiring a pre-processing step or an intermediate representation. We present the design and implementation of a web-based XML Schema browser called schem@Doc that operates over the XSD file itself. With this approach, XSD visualization is synchronized with the source file and always reflects its current state. This tool fits well in the schema development process and is easy to integrate in web repositories containing large numbers of XSD files.
Resumo:
Este relatório diz respeito ao trabalho desenvolvido em ambiente de estágio académico numa empreitada de Obra Pública, compreendendo a construção da nova ponte sobre o rio Lombe, na EN230, Estrada N’Dalatando – Malanje, Província de Malanje, República de Angola. O estágio foi realizado na CONDURIL – Engenharia, S.A. – Sucursal Angola, empresa dedicada à execução de obras de engenharia civil e obras públicas, com uma vasta experiencia profissional nesta área de actividade. O objectivo deste relatório, para além da descrição de todos os trabalhos práticos de execução da obra, é de transcrever os conhecimentos adquiridos ao longo do estágio, nomeadamente no que concerne aos dos processos de ‘Gestão, Coordenação e Planeamento’, imputáveis as funções da ‘Direcção Técnica de Obra’ durante toda a fase de execução da empreitada, estando o principal foco na descrição das actividades referentes ao controlo da obra.
Resumo:
No ambiente empresarial actual, cada vez mais competitivo e exigente, é um factor fundamental para o sucesso das empresas a sua capacidade de atingir e melhorar os níveis de satisfação exigidos pelos clientes. Para identificar as melhorias a implementar, as empresas devem ser capazes de monitorizar e controlar todas as suas actividades e processos. O acompanhamento realizado às actividades delegadas a empresas externas, como por exemplo o transporte de mercadorias, é dificultado quando os prestadores destes serviços não possuem ferramentas de apoio que disponibilizem informação necessária para o efeito. A necessidade de colmatar esta dificuldade na recolha da informação durante a distribuição de uma encomenda na empresa Caetano Parts, uma empresa de revenda de peças de substituição automóvel, levou ao desenvolvimento de uma ferramenta que permite fazer o seguimento de uma encomenda em todas as suas fases, permitindo ao responsável pelas operações acompanhar o estado da encomenda desde o instante em que a encomenda é colocada, passando pelo seu processamento dentro das instalações, até à sua entrega ao cliente. O sistema desenvolvido é composto por dois componentes, o front-end e o back-end. O front-end é composto por uma aplicação web, e por uma aplicação Android para dispositivos móveis. A aplicação web disponibiliza a gestão da base de dados, o acompanhamento do estado da encomenda e a análise das operações. A aplicação Android é disponibilizada às empresas responsáveis pelo transporte das encomendas e possibilita a actualização online da informação acerca do processo de entrega. O back-end é composto pela unidade de armazenamento e processamento da informação e encontra-se alojado num servidor com ligação à internet, disponibilizando uma interface com o serviço móvel do tipo serviço web. A concepção, desenvolvimento e descrição das funcionalidades desta ferramenta são abordadas ao longo do trabalho. Os testes realizados ao longo do desenvolvimento validaram o correcto funcionamento da ferramenta, estando pronta para a realização de um teste piloto.
Resumo:
As novas tecnologias, e a Internet em particular, criaram novas formas de transmissão de informação para o público e alteraram a forma como as pessoas comunicam. Isto abriu portas a novas formas de publicidade e ao aparecimento de um novo género de jogos, os advergames, aproveitando o facto dos jogos online contarem já com milhões de jogadores a nível mundial, um número que continua em constante crescimento. O conceito é relativamente recente mas apresenta resultados bastante positivos, com muitos especialistas a defender que os advergames são o futuro da publicidade, em grande parte devido aos custos inferiores e ao tempo de exposição do produto, quando comparado com os métodos mais tradicionais de publicidade. Os Jogos Sérios e, em especial, os advergames são o tema principal desta tese, com uma análise detalhada das suas vantagens e desvantagens, origens e oportunidade de desenvolvimento no futuro. São também analisados alguns casos de advergames de sucesso. A componente prática da tese tem como objetivo a criação de um advergame com o propósito principal de auxiliar os novos alunos do ISEP no seu processo de integração. O jogo consiste num formato de labirinto em duas dimensões, com objetivos que consistem na captura de certos objetos e entrega dos mesmos em pontos de destino pré-definidos, sempre dentro de um tempo limite e evitando outros perigos e obstáculos. Os resultados obtidos com a aplicação deste jogo demonstram que a transmissão de informação é bastante eficaz junto do seu público-alvo, devido em parte à abordagem mais dinâmica e interativa que um advergame tem com os seus utilizadores. A simplicidade da interface e facilidade de utilização proporcionada pelo jogo permitem uma exposição alargada da mensagem a passar, aumentando a motivação do jogador para se manter em contacto com o mesmo. Isto apresenta perspetivas bastante otimistas para o futuro da utilização de advergames no meio Universitário.
Resumo:
Mestrado em Engenharia Civil - Tecnologia e Gestão das Construções
Resumo:
Hospitals are considered as a special and important type of indoor public place where air quality has significant impacts on potential health outcomes. Information on indoor air quality of these environments, concerning exposures to particulate matter (PM) and related toxicity, is limited though. This work aims to evaluate risks associated with inhalation exposure to ten toxic metals and chlorine (As, Ni, Cr, Cd, Pb, Mn, Se, Ba, Al, Si, and Cl) in coarse (PM2.5–10) and fine (PM2.5) particles in a Portuguese hospital in comparison with studies representative of other countries. Samples were collected during 1 month in one urban hospital; elemental PM characterization was determined by proton-induced X-ray emission. Noncarcinogenic and carcinogenic risks were assessed according to the methodology provided by the United States Environmental Protection Agency (USEPA; Region III Risk-Based Concentration Table) for three different age categories of hospital personnel (adults, >20, and <65 years) and patients (considering nine different age groups, i.e., children of 1–3 years to seniors of >65 years). The estimated noncarcinogenic risks due to occupational inhalation exposure to PM2.5-bound metals ranged from 5.88×10−6 for Se (adults, 55–64 years) to 9.35×10−1 for As (adults, 20–24 years) with total noncarcinogenic risks (sum of all metals) above the safe level for all three age categories. As and Cl (the latter due to its high abundances) were the most important contributors (approximately 90 %) to noncarcinogenic risks. For PM2.5–10, noncarcinogenic risks of all metals were acceptable to all age groups. Concerning carcinogenic risks, for Ni and Pb, they were negligible (<1×10−6) in both PM fractions for all age groups of hospital personnel; potential risks were observed for As and Cr with values in PM2.5 exceeding (up to 62 and 5 times, respectively) USEPA guideline across all age groups; for PM2.5–10, increased excess risks of As and Cr were observed particularly for long-term exposures (adults, 55–64 years). Total carcinogenic risks highly (up to 67 times) exceeded the recommended level for all age groups, thus clearly showing that occupational exposure to metals in fine particles pose significant risks. If the extensive working hours of hospital medical staff were considered, the respective noncarcinogenic and carcinogenic risks were increased, the latter for PM2.5 exceeding the USEPA cumulative guideline of 10−4. For adult patients, the estimated noncarcinogenic and carcinogenic risks were approximately three times higher than for personnel, with particular concerns observed for children and adolescents.
Resumo:
Wireless Body Area Network (WBAN) is the most convenient, cost-effective, accurate, and non-invasive technology for e-health monitoring. The performance of WBAN may be disturbed when coexisting with other wireless networks. Accordingly, this paper provides a comprehensive study and in-depth analysis of coexistence issues and interference mitigation solutions in WBAN technologies. A thorough survey of state-of-the art research in WBAN coexistence issues is conducted. The survey classified, discussed, and compared the studies according to the parameters used to analyze the coexistence problem. Solutions suggested by the studies are then classified according to the followed techniques and concomitant shortcomings are identified. Moreover, the coexistence problem in WBAN technologies is mathematically analyzed and formulas are derived for the probability of successful channel access for different wireless technologies with the coexistence of an interfering network. Finally, extensive simulations are conducted using OPNET with several real-life scenarios to evaluate the impact of coexistence interference on different WBAN technologies. In particular, three main WBAN wireless technologies are considered: IEEE 802.15.6, IEEE 802.15.4, and low-power WiFi. The mathematical analysis and the simulation results are discussed and the impact of interfering network on the different wireless technologies is compared and analyzed. The results show that an interfering network (e.g., standard WiFi) has an impact on the performance of WBAN and may disrupt its operation. In addition, using low-power WiFi for WBANs is investigated and proved to be a feasible option compared to other wireless technologies.
Resumo:
Hard real- time multiprocessor scheduling has seen, in recent years, the flourishing of semi-partitioned scheduling algorithms. This category of scheduling schemes combines elements of partitioned and global scheduling for the purposes of achieving efficient utilization of the system’s processing resources with strong schedulability guarantees and with low dispatching overheads. The sub-class of slot-based “task-splitting” scheduling algorithms, in particular, offers very good trade-offs between schedulability guarantees (in the form of high utilization bounds) and the number of preemptions/migrations involved. However, so far there did not exist unified scheduling theory for such algorithms; each one was formulated in its own accompanying analysis. This article changes this fragmented landscape by formulating a more unified schedulability theory covering the two state-of-the-art slot-based semi-partitioned algorithms, S-EKG and NPS-F (both fixed job-priority based). This new theory is based on exact schedulability tests, thus also overcoming many sources of pessimism in existing analysis. In turn, since schedulability testing guides the task assignment under the schemes in consideration, we also formulate an improved task assignment procedure. As the other main contribution of this article, and as a response to the fact that many unrealistic assumptions, present in the original theory, tend to undermine the theoretical potential of such scheduling schemes, we identified and modelled into the new analysis all overheads incurred by the algorithms in consideration. The outcome is a new overhead-aware schedulability analysis that permits increased efficiency and reliability. The merits of this new theory are evaluated by an extensive set of experiments.
Resumo:
Energy consumption is one of the major issues for modern embedded systems. Early, power saving approaches mainly focused on dynamic power dissipation, while neglecting the static (leakage) energy consumption. However, technology improvements resulted in a case where static power dissipation increasingly dominates. Addressing this issue, hardware vendors have equipped modern processors with several sleep states. We propose a set of leakage-aware energy management approaches that reduce the energy consumption of embedded real-time systems while respecting the real-time constraints. Our algorithms are based on the race-to-halt strategy that tends to run the system at top speed with an aim to create long idle intervals, which are used to deploy a sleep state. The effectiveness of our algorithms is illustrated with an extensive set of simulations that show an improvement of up to 8% reduction in energy consumption over existing work at high utilization. The complexity of our algorithms is smaller when compared to state-of-the-art algorithms. We also eliminate assumptions made in the related work that restrict the practical application of the respective algorithms. Moreover, a novel study about the relation between the use of sleep intervals and the number of pre-emptions is also presented utilizing a large set of simulation results, where our algorithms reduce the experienced number of pre-emptions in all cases. Our results show that sleep states in general can save up to 30% of the overall number of pre-emptions when compared to the sleep-agnostic earliest-deadline-first algorithm.
Resumo:
Relatório de Estágio
Resumo:
As the wireless cellular market reaches competitive levels never seen before, network operators need to focus on maintaining Quality of Service (QoS) a main priority if they wish to attract new subscribers while keeping existing customers satisfied. Speech Quality as perceived by the end user is one major example of a characteristic in constant need of maintenance and improvement. It is in this topic that this Master Thesis project fits in. Making use of an intrusive method of speech quality evaluation, as a means to further study and characterize the performance of speech codecs in second-generation (2G) and third-generation (3G) technologies. Trying to find further correlation between codecs with similar bit rates, along with the exploration of certain transmission parameters which may aid in the assessment of speech quality. Due to some limitations concerning the audio analyzer equipment that was to be employed, a different system for recording the test samples was sought out. Although the new designed system is not standard, after extensive testing and optimization of the system's parameters, final results were found reliable and satisfactory. Tests include a set of high and low bit rate codecs for both 2G and 3G, where values were compared and analysed, leading to the outcome that 3G speech codecs perform better, under the approximately same conditions, when compared with 2G. Reinforcing the idea that 3G is, with no doubt, the best choice if the costumer looks for the best possible listening speech quality. Regarding the transmission parameters chosen for the experiment, the Receiver Quality (RxQual) and Received Energy per Chip to the Power Density Ratio (Ec/N0), these were subject to speech quality correlation tests. Final results of RxQual were compared to those of prior studies from different researchers and, are considered to be of important relevance. Leading to the confirmation of RxQual as a reliable indicator of speech quality. As for Ec/N0, it is not possible to state it as a speech quality indicator however, it shows clear thresholds for which the MOS values decrease significantly. The studied transmission parameters show that they can be used not only for network management purposes but, at the same time, give an expected idea to the communications engineer (or technician) of the end-to-end speech quality consequences. With the conclusion of the work new ideas for future studies come to mind. Considering that the fourth-generation (4G) cellular technologies are now beginning to take an important place in the global market, as the first all-IP network structure, it seems of great relevance that 4G speech quality should be subject of evaluation. Comparing it to 3G, not only in narrowband but also adding wideband scenarios with the most recent standard objective method of speech quality assessment, POLQA. Also, new data found on Ec/N0 tests, justifies further research studies with the intention of validating the assumptions made in this work.