953 resultados para Distribution system optimization
Resumo:
European Journal of Operational Research, nº 73 (1994)
Resumo:
O planeamento de redes de distribuição tem como objetivo assegurar a existência de capacidade nas redes para a fornecimento de energia elétrica com bons níveis de qualidade de serviço tendo em conta os fatores económicos associados. No âmbito do trabalho apresentado na presente dissertação, foi elaborado um modelo de planeamento que determina a configuração de rede resultante da minimização de custos associados a: 1) perdas por efeito de joule; 2) investimento em novos componentes; 3) energia não entregue. A incerteza associada ao valor do consumo de cada carga é modelada através de lógica difusa. O problema de otimização definido é resolvido pelo método de decomposição de benders que contempla dois trânsitos de potências ótimos (modelo DC e modelo AC) no problema mestre e escravo respectivamente para validação de restrições. Foram também definidos critérios de paragem do método de decomposição de benders. O modelo proposto classifica-se como programação não linear inteira mista e foi implementado na ferramenta de otimização General Algebraic Modeling System (GAMS). O modelo desenvolvido tem em conta todos componentes das redes para a otimização do planeamento, conforme podemos analisar nos casos de estudo implementados. Cada caso de estudo é definido pela variação da importância que cada uma das variáveis do problema toma, tendo em vista cobrir de alguma todos os cenários de operação expetáveis. Através destes casos de estudo verifica-se as várias configurações que a rede pode tomar, tendo em conta as importâncias atribuídas a cada uma das variáveis, bem como os respetivos custos associados a cada solução. Este trabalho oferece um considerável contributo no âmbito do planeamento de redes de distribuição, pois comporta diferentes variáveis para a execução do mesmo. É também um modelo bastante robusto não perdendo o ‘norte’ no encontro de solução para redes de grande dimensão, com maior número de componentes.
Resumo:
4th International Conference on Future Generation Communication Technologies (FGCT 2015), Luton, United Kingdom.
Resumo:
This paper presents a framework for a robotic production line simulation learning environment using Autonomous Ground Vehicles (AGV). An eLearning platform is used as interface with the simulator. The objective is to introduce students to the production robotics area using a familiar tool, an eLearning platform, and a framework that simulates a production line using AGVs. This framework allows students to learn about robotics but also about several areas of industrial management engineering without requiring an extensive prior knowledge on the robotics area. The robotic production line simulation learning environment simulates a production environment using AGVs to transport materials to and from the production line. The simulator allows students to validate the AGV dynamics and provides information about the whole materials supplying system which includes: supply times, route optimization and inventory management. The students are required to address several topics such as: sensors, actuators, controllers and an high level management and optimization software. This simulator was developed with a known open source tool from robotics community: Player/Stage. This tool was extended with several add-ons so that students can be able to interact with a complex simulation environment. These add-ons include an abstraction communication layer that performs events provided by the database server which is programmed by the students. An eLearning platform is used as interface between the students and the simulator. The students can visualize the effects of their instructions/programming in the simulator that they can access via the eLearning platform. The proposed framework aims to allow students from different backgrounds to fully experience robotics in practice by suppressing the huge gap between theory and practice that exists in robotics. Using an eLearning platform eliminates installation problems that can occur from different computers software distribution and makes the simulator accessible by all students at school and at home.
Resumo:
HHV-6 is the etiological agent of Exanthem subitum which is considered the sixth most frequent disease in infancy. In immuno-compromised hosts, reactivation of latent HHV-6 infection may cause severe acute disease. We developed a Sybr Green Real Time PCR for HHV-6 and compared the results with nested conventional PCR. A 214 pb PCR derived fragment was cloned using pGEM-T easy from Promega system. Subsequently, serial dilutions were made in a pool of negative leucocytes from 10-6 ng/µL (equivalent to 2465.8 molecules/µL) to 10-9 (equivalent to 2.46 molecules/µL). Dilutions of the plasmid were amplified by Sybr Green Real Time PCR, using primers HHV3 (5' TTG TGC GGG TCC GTT CCC ATC ATA 3)'and HHV4 (5' TCG GGA TAG AAA AAC CTA ATC CCT 3') and by conventional nested PCR using primers HHV1 (outer): 5'CAA TGC TTT TCT AGC CGC CTC TTC 3'; HHV2 (outer): 5' ACA TCT ATA ATT TTA GAC GAT CCC 3'; HHV3 (inner) and HHV4 (inner) 3'. The detection threshold was determined by plasmid serial dilutions. Threshold for Sybr Green real time PCR was 24.6 molecules/µL and for the nested PCR was 2.46 molecules/µL. We chose the Real Time PCR for diagnosing and quantifying HHV-6 DNA from samples using the new Sybr Green chemistry due to its sensitivity and lower risk of contamination.
Resumo:
Quality of life is a concept influenced by social, economic, psychological, spiritual or medical state factors. More specifically, the perceived quality of an individual's daily life is an assessment of their well-being or lack of it. In this context, information technologies may help on the management of services for healthcare of chronic patients such as estimating the patient quality of life and helping the medical staff to take appropriate measures to increase each patient quality of life. This paper describes a Quality of Life estimation system developed using information technologies and the application of data mining algorithms to access the information of clinical data of patients with cancer from Otorhinolaryngology and Head and Neck services of an oncology institution. The system was evaluated with a sample composed of 3013 patients. The results achieved show that there are variables that may be significant predictors for the Quality of Life of the patient: years of smoking (p value 0.049) and size of the tumor (p value < 0.001). In order to assign the variables to the classification of the quality of life the best accuracy was obtained by applying the John Platt's sequential minimal optimization algorithm for training a support vector classifier. In conclusion data mining techniques allow having access to patients additional information helping the physicians to be able to know the quality of life and produce a well-informed clinical decision.
Resumo:
Thesis submitted to the Universidade Nova de Lisboa, Faculdade de Ciências e Tecnologia for the degree of Doctor of Philosophy in Environmental Engineering
Resumo:
Dissertação para obtenção do Grau de Doutor em Engenharia Química, especialidade de Engenharia Bioquímica
Resumo:
A presente dissertação foi realizada no âmbito do Mestrado de Engenharia e Gestão Industrial da Escola Superior de Estudos Industriais e de Gestão, de Vila do Conde. O projeto desenvolvido tem como tema principal a Otimização de processos de Logística in-house baseado num projeto, em contexto empresarial da empresa cliente, Continental Mabor S.A., da Rangel Distribuição e Logística, S.A. Este projeto tem como objetivo a “aglomeração” de dois armazéns do cliente, devido à necessidade de ocupação do armazém de produto acabado interno, para aumento da área de produção. Inicialmente foi feita uma revisão de literatura sobre os temas mais relevantes de suporte para o projeto, nomeadamente na otimização e melhoria contínua. Seguidamente é apresentado o Grupo Rangel, bem como a Rangel Distribuição e Logística, S.A., onde se enquadra o projeto e para se perceber o enquadramento e objetivo. A metodologia usada, caso de estudo, permitiu a aplicação de conceitos e ferramentas usados na literatura neste contexto, como ferramentas de otimização e melhoria continua como as melhores práticas de Kaizen-Lean. Na fase de diagnóstico do atual sistema, foi realizado um mapeamento de fluxo de processos e uma descrição detalhada do layout dos dois armazéns: Armazém de Produto Acabado (APA) e Armazém de Produto Acabado Externo (APAE), bem como todos os recursos, quer técnicos quer humanos necessários. Verificamos ao longo deste projeto várias limitações, inclusive limitações impostas pelo cliente, tal como não aprovar um estudo para um novo layout do armazém. Foi aprovado apenas a replicação do já existente. Com isto, depararam-se constrangimentos na gestão deste projeto. Os custos aumentaram significativamente, embora estes não sejam apresentados por questões de confidencialidade, principalmente com a necessidade de aquisição de novos equipamentos retráteis, e mais baterias para os mesmos, devido às grandes distâncias que irão ser percorridas. Finalmente foi projetado o sistema futuro, de acordo com as necessidades reais do cliente tendo em consideração a otimização de recursos e uma gestão magra (Lean Management). Foi desenvolvida a implementação da metodologia “Kaizen diário”, a dar início em 2016 juntamente com o novo projeto APAE. Com esta projeção foram identificados problemas e implicações no projeto, bem como possíveis melhorias.
Resumo:
A liberalização dos mercados de energia elétrica e a crescente integração dos recursos energéticos distribuídos nas redes de distribuição, nomeadamente as unidades de produção distribuída, os sistemas de controlo de cargas através dos programas de demand response, os sistemas de armazenamento e os veículos elétricos, representaram uma evolução no paradigma de operação e gestão dos sistemas elétricos. Este novo paradigma de operação impõe o desenvolvimento de novas metodologias de gestão e controlo que permitam a integração de todas as novas tecnologias de forma eficiente e sustentável. O principal contributo deste trabalho reside no desenvolvimento de metodologias para a gestão de recursos energéticos no contexto de redes inteligentes, que contemplam três horizontes temporais distintos (24 horas, 1 hora e 5 minutos). As metodologias consideram os escalonamentos anteriores assim como as previsões atualizadas de forma a melhorar o desempenho total do sistema e consequentemente aumentar a rentabilidade dos agentes agregadores. As metodologias propostas foram integradas numa ferramenta de simulação, que servirá de apoio à decisão de uma entidade agregadora designada por virtual power player. Ao nível das metodologias desenvolvidas são propostos três algoritmos de gestão distintos, nomeadamente para a segunda (1 hora) e terceira fase (5 minutos) da ferramenta de gestão, diferenciados pela influência que os períodos antecedentes e seguintes têm no período em escalonamento. Outro aspeto relevante apresentado neste documento é o teste e a validação dos modelos propostos numa plataforma de simulação comercial. Para além das metodologias propostas, a aplicação permitiu validar os modelos dos equipamentos considerados, nomeadamente, ao nível das redes de distribuição e dos recursos energéticos distribuidos. Nesta dissertação são apresentados três casos de estudos, cada um com diferentes cenários referentes a cenários de operação futuros. Estes casos de estudos são importantes para verificar a viabilidade da implementação das metodologias e algoritmos propostos. Adicionalmente são apresentadas comparações das metodologias propostas relativamente aos resultados obtidos, complexidade de gestão em ambiente de simulação para as diferentes fases da ferramenta proposta e os benefícios e inconvenientes no uso da ferramenta proposta.
Resumo:
As technology advances not only do new standards and programming styles appear but also some of the previously established ones gain relevance. In a new Internet paradigm where interconnection between small devices is key to the development of new businesses and scientific advancement there is the need to find simple solutions that anyone can implement in order to allow ideas to become more than that, ideas. Open-source software is still alive and well, especially in the area of the Internet of Things. This opens windows for many low capital entrepreneurs to experiment with their ideas and actually develop prototypes, which can help identify problems with a project or shine light on possible new features and interactions. As programming becomes more and more popular between people of fields not related to software there is the need for guidance in developing something other than basic algorithms, which is where this thesis comes in: A comprehensive document explaining the challenges and available choices of developing a sensor data and message delivery system, which scales well and implements the delivery of critical messages. Modularity and extensibility were also given much importance, making this an affordable tool for anyone that wants to build a sensor network of the kind.
Optimization of fMRI Processing Parameters for Simutaneous Acquisition of EEG/fMRI in Focal Epilepsy
Resumo:
In the context of focal epilepsy, the simultaneous combination of electroencephalography (EEG) and functional magnetic resonance imaging (fMRI) holds a great promise as a technique by which the hemodynamic correlates of interictal spikes detected on scalp EEG can be identified. The fact that traditional EEG recordings have not been able to overcome the difficulty in correlating the ictal clinical symptoms to the onset in particular areas of the lobes, brings the need of mapping with more precision the epileptogenic cortical regions. On the other hand, fMRI suggested localizations more consistent with the ictal clinical manifestations detected. This study was developed in order to improve the knowledge about the way parameters involved in the physical and mathematical data, produced by the EEG/fMRI technique processing, would influence the final results. The evaluation of the accuracy was made by comparing the BOLD results with: the high resolution EEG maps; the malformative lesions detected in the T1 weighted MR images; and the anatomical localizations of the diagnosed symptomatology of each studied patient. The optimization of the set of parameters used, will provide an important contribution to the diagnosis of epileptogenic focuses, in patients included on an epilepsy surgery evaluation program. The results obtained allowed us to conclude that: by associating the BOLD effect with interictal spikes, the epileptogenic areas are mapped to localizations different from those obtained by the EEG maps representing the electrical potential distribution across the scalp (EEG); there is an important and solid bond between the variation of particular parameters (manipulated during the fMRI data processing) and the optimization of the final results, from which smoothing, deleted volumes, HRF (used to convolve with the activation design), and the shape of the Gamma function can be certainly emphasized.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Electrotécnica e de Computadores
Resumo:
A Work Project, presented as part of the requirements for the Award of a Masters Degree in Economics from the NOVA – School of Business and Economics
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Electrotécnica e de Computadores