90 resultados para soft computing methods
Resumo:
Demand response has gained increasing importance in the context of competitive electricity markets and smart grid environments. In addition to the importance that has been given to the development of business models for integrating demand response, several methods have been developed to evaluate the consumers’ performance after the participation in a demand response event. The present paper uses those performance evaluation methods, namely customer baseline load calculation methods, to determine the expected consumption in each period of the consumer historic data. In the cases in which there is a certain difference between the actual consumption and the estimated consumption, the consumer is identified as a potential cause of non-technical losses. A case study demonstrates the application of the proposed method to real consumption data.
Resumo:
Demand response has gain increasing importance in the context of competitive electricity markets environment. The use of demand resources is also advantageous in the context of smart grid operation. In addition to the need of new business models for integrating demand response, adequate methods are necessary for an accurate determination of the consumers’ performance evaluation after the participation in a demand response event. The present paper makes a comparison between some of the existing baseline methods related to the consumers’ performance evaluation, comparing the results obtained with these methods and also with a method proposed by the authors of the paper. A case study demonstrates the application of the referred methods to real consumption data belonging to a consumer connected to a distribution network.
Resumo:
Electric power networks, namely distribution networks, have been suffering several changes during the last years due to changes in the power systems operation, towards the implementation of smart grids. Several approaches to the operation of the resources have been introduced, as the case of demand response, making use of the new capabilities of the smart grids. In the initial levels of the smart grids implementation reduced amounts of data are generated, namely consumption data. The methodology proposed in the present paper makes use of demand response consumers’ performance evaluation methods to determine the expected consumption for a given consumer. Then, potential commercial losses are identified using monthly historic consumption data. Real consumption data is used in the case study to demonstrate the application of the proposed method.
Resumo:
Esta tese descreve um projeto desenvolvido na sua maioria durante o segundo semestre do ano letivo 2013/2014 nas instalações da Bosch Security Systems ST em Ovar, uma empresa do Grupo Bosch. Este projeto resultou de uma cooperação existente entre a Avans University of Applied Sciences (AUAS) e o Instituto Superior de Engenharia do Porto (ISEP), bem como entre a fábrica Bosch ST Ovar e o Centro de Desenvolvimento Bosch situado em Eindhoven, Holanda. O objetivo é o estudo dos processos colaborativos de comunicação que se realizam entre a R&D (Research and Development/Centro de Desenvolvimento) e a MP (Manufacturing Plant/Fábrica). O sucesso das organizações empresariais só é possível se se alcançar a satisfação das expectativas do mercado. Assim, para o sucesso de uma empresa, temos de ter em conta a sua eficiência para conseguir obter o máximo rendimento da sua missão, que só é possível através de comunicações e de processos produtivos/serviços que acrescentem valor ao bem que disponibilizam. Tendo sempre em vista este princípio, o Grupo Bosch tem vindo a adotar metodologias com o intuito de eliminar os desperdícios existentes nos seus negócios aumentando o máximo possível os seus rendimentos. O desafio foi encontrar problemas ou dificuldades que levam com que a comunicação não seja realizada eficazmente, o que origina, na maioria dos casos, atrasos nos projetos realizados nesta parceria. Com a orientação do diretor técnico da fábrica e observando o trabalho realizado por 2 MBI’s (Manufacturing Business Interface), iniciou-se a compreensão do meio e os métodos de trabalho da empresa, a forma como é que é feita a parceria com os centros de desenvolvimento, como também as responsabilidades e funções de cada um. O estudo desenvolvido teve como base a metodologia Soft Systems Methodology com envolvimento de um questionário submetido aos colaboradores Bosch, realizando-se no final as sugestões de melhoria. Este relatório apresenta assim o estudo dos processos colaborativos e de comunicação entre a fábrica e o centro de desenvolvimento.
Resumo:
Harnessing idle PCs CPU cycles, storage space and other resources of networked computers to collaborative are mainly fixated on for all major grid computing research projects. Most of the university computers labs are occupied with the high puissant desktop PC nowadays. It is plausible to notice that most of the time machines are lying idle or wasting their computing power without utilizing in felicitous ways. However, for intricate quandaries and for analyzing astronomically immense amounts of data, sizably voluminous computational resources are required. For such quandaries, one may run the analysis algorithms in very puissant and expensive computers, which reduces the number of users that can afford such data analysis tasks. Instead of utilizing single expensive machines, distributed computing systems, offers the possibility of utilizing a set of much less expensive machines to do the same task. BOINC and Condor projects have been prosperously utilized for solving authentic scientific research works around the world at a low cost. In this work the main goal is to explore both distributed computing to implement, Condor and BOINC, and utilize their potency to harness the ideal PCs resources for the academic researchers to utilize in their research work. In this thesis, Data mining tasks have been performed in implementation of several machine learning algorithms on the distributed computing environment.
Resumo:
O desenvolvimento de aplicações para dispositivos móveis já não é uma área recente, contudo continua a crescer a um ritmo veloz. É notório o avanço tecnológico dos últimos anos e a crescente popularidade destes dispositivos. Este avanço deve-se não só à grande evolução no que diz respeito às características destes dispositivos, mas também à possibilidade de criar aplicações inovadoras, práticas e passíveis de solucionar os problemas dos utilizadores em geral. Nesse sentido, as necessidades do quotidiano obrigam à implementação de soluções que satisfaçam os utilizadores, e nos dias de hoje, essa satisfação muitas vezes passa pelos dispositivos móveis, que já tem um papel fundamental na vida das pessoas. Atendendo ao aumento do número de raptos de crianças e à insegurança que se verifica nos dias de hoje, as quais dificultam a tarefa de todos os pais/cuidadores que procuraram manter as suas crianças a salvo, é relevante criar uma nova ferramenta capaz de os auxiliar nesta árdua tarefa. A partir desta realidade, e com vista a cumprir os aspetos acima mencionados, surge assim esta dissertação de mestrado. Esta aborda o estudo e implementação efetuados no sentido de desenvolver um sistema de monitorização de crianças. Assim, o objetivo deste projeto passa por desenvolver uma aplicação nativa para Android e um back-end, utilizando um servidor de base de dados NoSQL para o armazenamento da informação, aplicando os conceitos estudados e as tecnologias existentes. A solução tem como principais premissas: ser o mais user-friendly possível, a otimização, a escalabilidade para outras situações (outros tipos de monitorizações) e a aplicação das mais recentes tecnologias. Assim sendo, um dos estudos mais aprofundados nesta dissertação de mestrado está relacionado com as bases de dados NoSQL, dada a sua importância no projeto.
Resumo:
BACKGROUND: The hospital environment has many occupational health risks that predispose healthcare workers to various kinds of work accidents. OBJECTIVE: This study aims to compare different methods for work accidents investigation and to verify their suitability in hospital environment. METHODS: For this purpose, we selected three types of accidents that were related with needle stick, worker fall and inadequate effort/movement during the mobilization of patients. A total of thirty accidents were analysed with six different work accidents investigation methods. RESULTS: The results showed that organizational factors were the group of causes which had the greatest impact in the three types of work accidents. CONCLUSIONS: The methods selected to be compared in this paper are applicable and appropriate for the work accidents investigation in hospitals. However, the Registration, Research and Analysis of Work Accidents method (RIAAT) showed to be an optimal technique to use in this context.
Resumo:
Esta dissertação descreve o sistema de apoio à racionalização da utilização de energia eléctrica desenvolvido no âmbito da unidade curricular de Tese/Dissertação. O domínio de aplicação enquadra-se no contexto da Directiva da União Europeia 2006/32/EC que declara ser necessário colocar à disposição dos consumidores a informação e os meios que promovam a redução do consumo e o aumento da eficiência energética individual. O objectivo é o desenvolvimento de uma solução que permita a representação gráfica do consumo/produção, a definição de tectos de consumo, a geração automática de alertas e alarmes, a comparação anónima com clientes com perfil idêntico por região e a previsão de consumo/produção no caso de clientes industriais. Trata-se de um sistema distribuído composto por front-end e back-end. O front-end é composto pelas aplicações de interface com o utilizador desenvolvidas para dispositivos móveis Android e navegadores Web. O back-end efectua o armazenamento e processamento de informação e encontra-se alojado numa plataforma de cloud computing – o Google App Engine – que disponibiliza uma interface padrão do tipo serviço Web. Esta opção assegura interoperabilidade, escalabilidade e robustez ao sistema. Descreve-se em detalhe a concepção, desenvolvimento e teste do protótipo realizado, incluindo: (i) as funcionalidades de gestão e análise de consumo e produção de energia implementadas; (ii) as estruturas de dados; (iii) a base de dados e o serviço Web; e (iv) os testes e a depuração efectuados. (iv) Por fim, apresenta-se o balanço deste projecto e efectuam-se sugestões de melhoria.
Resumo:
In recent years, vehicular cloud computing (VCC) has emerged as a new technology which is being used in wide range of applications in the area of multimedia-based healthcare applications. In VCC, vehicles act as the intelligent machines which can be used to collect and transfer the healthcare data to the local, or global sites for storage, and computation purposes, as vehicles are having comparatively limited storage and computation power for handling the multimedia files. However, due to the dynamic changes in topology, and lack of centralized monitoring points, this information can be altered, or misused. These security breaches can result in disastrous consequences such as-loss of life or financial frauds. Therefore, to address these issues, a learning automata-assisted distributive intrusion detection system is designed based on clustering. Although there exist a number of applications where the proposed scheme can be applied but, we have taken multimedia-based healthcare application for illustration of the proposed scheme. In the proposed scheme, learning automata (LA) are assumed to be stationed on the vehicles which take clustering decisions intelligently and select one of the members of the group as a cluster-head. The cluster-heads then assist in efficient storage and dissemination of information through a cloud-based infrastructure. To secure the proposed scheme from malicious activities, standard cryptographic technique is used in which the auotmaton learns from the environment and takes adaptive decisions for identification of any malicious activity in the network. A reward and penalty is given by the stochastic environment where an automaton performs its actions so that it updates its action probability vector after getting the reinforcement signal from the environment. The proposed scheme was evaluated using extensive simulations on ns-2 with SUMO. The results obtained indicate that the proposed scheme yields an improvement of 10 % in detection rate of malicious nodes when compared with the existing schemes.
Resumo:
Ecological Water Quality - Water Treatment and Reuse
Resumo:
13th International Conference on Autonomous Robot Systems (Robotica), 2013, Lisboa
Resumo:
This study aims to compare two methods of assessing the postural phase of gait initiation as to intrasession reliability, in healthy and post-stroke subjects. As a secondary aim, this study aims to analyse anticipatory postural adjustments during gait initiation based on the centre of pressure (CoP) displacements in post-stroke participants. The CoP signal was acquired during gait initiation in fifteen post-stroke subjects and twenty-three healthy controls. Postural phase was identified through a baseline-based method and a maximal displacement based method. In both healthy and post-stroke participants higher intra-class correlation coefficient and lower coefficient of variation values were obtained with the baseline-based method when compared to the maximal displacement based method. Post-stroke participants presented decreased CoP displacement backward and toward the first swing limb compared to controls when the baseline-based method was used. With the maximal displacement based method, there were differences between groups only regarding backward CoP displacement. Postural phase duration in medial-lateral direction was also increased in post-stroke participants when using the maximal displacement based method. The findings obtained indicate that the baseline-based method is more reliable detecting the onset of gait initiation in both groups, while the maximal displacement based method presents greater sensitivity for post-stroke participants.
Resumo:
Gerir os recursos humanos implica deter uma visão estratégica, previsional e provisional. Hoje em dia, a avaliação dos recursos humanos é uma constante nas empresas de consultoria, pelo que o presente estudo tem como principal objetivo analisar e compreender a perceção dos avaliadores relativamente aos Processos de Recrutamento e Seleção. Participaram no presente estudo 12 avaliadores de empresas de consultoria de Portugal, de ambos os sexos, com uma média etária de 36 anos (DP=7.98). Foi administrado um inquérito por questionário para recolha de dados demográficos e elaborado um guião de entrevista com 13 questões. Os dados foram tratados através da análise de conteúdo, a partir da qual foi possível identificar-se categorias e subcategorias das respostas concedidas. Os principais resultados mostraram que, globalmente, os avaliadores possuem uma perceção positiva da sua atividade. O recrutamento online/pela internet é identificado como fonte de excelência para atrair candidatos e a entrevista é a técnica de avaliação utilizada pelos avaliadores, com especial enfoque nas entrevistas por competências com orientação semidiretiva. O processo de avaliação valoriza as soft skills, sendo que os avaliadores detêm um grau de confiança relativamente grande nas metodologias de avaliação que utilizam. A motivação dos avaliadores no desempenho da sua função radica, essencialmente na abrangência de conhecimentos que reveste a função e a possibilidade que esta confere de desenvolvimento. Estudos futuros devem ser realizados com amostras mais abrangentes, integrando metodologias quantitativas e qualitativas e com empresas onde a área de Recrutamento e Seleção seja desenvolvida internamente.
Resumo:
Face à estagnação da tecnologia uniprocessador registada na passada década, aos principais fabricantes de microprocessadores encontraram na tecnologia multi-core a resposta `as crescentes necessidades de processamento do mercado. Durante anos, os desenvolvedores de software viram as suas aplicações acompanhar os ganhos de performance conferidos por cada nova geração de processadores sequenciais, mas `a medida que a capacidade de processamento escala em função do número de processadores, a computação sequencial tem de ser decomposta em várias partes concorrentes que possam executar em paralelo, para que possam utilizar as unidades de processamento adicionais e completar mais rapidamente. A programação paralela implica um paradigma completamente distinto da programação sequencial. Ao contrário dos computadores sequenciais tipificados no modelo de Von Neumann, a heterogeneidade de arquiteturas paralelas requer modelos de programação paralela que abstraiam os programadores dos detalhes da arquitectura e simplifiquem o desenvolvimento de aplicações concorrentes. Os modelos de programação paralela mais populares incitam os programadores a identificar instruções concorrentes na sua lógica de programação, e a especificá-las sob a forma de tarefas que possam ser atribuídas a processadores distintos para executarem em simultâneo. Estas tarefas são tipicamente lançadas durante a execução, e atribuídas aos processadores pelo motor de execução subjacente. Como os requisitos de processamento costumam ser variáveis, e não são conhecidos a priori, o mapeamento de tarefas para processadores tem de ser determinado dinamicamente, em resposta a alterações imprevisíveis dos requisitos de execução. `A medida que o volume da computação cresce, torna-se cada vez menos viável garantir as suas restrições temporais em plataformas uniprocessador. Enquanto os sistemas de tempo real se começam a adaptar ao paradigma de computação paralela, há uma crescente aposta em integrar execuções de tempo real com aplicações interativas no mesmo hardware, num mundo em que a tecnologia se torna cada vez mais pequena, leve, ubíqua, e portável. Esta integração requer soluções de escalonamento que simultaneamente garantam os requisitos temporais das tarefas de tempo real e mantenham um nível aceitável de QoS para as restantes execuções. Para tal, torna-se imperativo que as aplicações de tempo real paralelizem, de forma a minimizar os seus tempos de resposta e maximizar a utilização dos recursos de processamento. Isto introduz uma nova dimensão ao problema do escalonamento, que tem de responder de forma correcta a novos requisitos de execução imprevisíveis e rapidamente conjeturar o mapeamento de tarefas que melhor beneficie os critérios de performance do sistema. A técnica de escalonamento baseado em servidores permite reservar uma fração da capacidade de processamento para a execução de tarefas de tempo real, e assegurar que os efeitos de latência na sua execução não afectam as reservas estipuladas para outras execuções. No caso de tarefas escalonadas pelo tempo de execução máximo, ou tarefas com tempos de execução variáveis, torna-se provável que a largura de banda estipulada não seja consumida por completo. Para melhorar a utilização do sistema, os algoritmos de partilha de largura de banda (capacity-sharing) doam a capacidade não utilizada para a execução de outras tarefas, mantendo as garantias de isolamento entre servidores. Com eficiência comprovada em termos de espaço, tempo, e comunicação, o mecanismo de work-stealing tem vindo a ganhar popularidade como metodologia para o escalonamento de tarefas com paralelismo dinâmico e irregular. O algoritmo p-CSWS combina escalonamento baseado em servidores com capacity-sharing e work-stealing para cobrir as necessidades de escalonamento dos sistemas abertos de tempo real. Enquanto o escalonamento em servidores permite partilhar os recursos de processamento sem interferências a nível dos atrasos, uma nova política de work-stealing que opera sobre o mecanismo de capacity-sharing aplica uma exploração de paralelismo que melhora os tempos de resposta das aplicações e melhora a utilização do sistema. Esta tese propõe uma implementação do algoritmo p-CSWS para o Linux. Em concordância com a estrutura modular do escalonador do Linux, ´e definida uma nova classe de escalonamento que visa avaliar a aplicabilidade da heurística p-CSWS em circunstâncias reais. Ultrapassados os obstáculos intrínsecos `a programação da kernel do Linux, os extensos testes experimentais provam que o p-CSWS ´e mais do que um conceito teórico atrativo, e que a exploração heurística de paralelismo proposta pelo algoritmo beneficia os tempos de resposta das aplicações de tempo real, bem como a performance e eficiência da plataforma multiprocessador.