80 resultados para grid point selection
Resumo:
The concept of demand response has a growing importance in the context of the future power systems. Demand response can be seen as a resource like distributed generation, storage, electric vehicles, etc. All these resources require the existence of an infrastructure able to give players the means to operate and use them in an efficient way. This infrastructure implements in practice the smart grid concept, and should accommodate a large number of diverse types of players in the context of a competitive business environment. In this paper, demand response is optimally scheduled jointly with other resources such as distributed generation units and the energy provided by the electricity market, minimizing the operation costs from the point of view of a virtual power player, who manages these resources and supplies the aggregated consumers. The optimal schedule is obtained using two approaches based on particle swarm optimization (with and without mutation) which are compared with a deterministic approach that is used as a reference methodology. A case study with two scenarios implemented in DemSi, a demand Response simulator developed by the authors, evidences the advantages of the use of the proposed particle swarm approaches.
Resumo:
The large increase of Distributed Generation (DG) in Power Systems (PS) and specially in distribution networks makes the management of distribution generation resources an increasingly important issue. Beyond DG, other resources such as storage systems and demand response must be managed in order to obtain more efficient and “green” operation of PS. More players, such as aggregators or Virtual Power Players (VPP), that operate these kinds of resources will be appearing. This paper proposes a new methodology to solve the distribution network short term scheduling problem in the Smart Grid context. This methodology is based on a Genetic Algorithms (GA) approach for energy resource scheduling optimization and on PSCAD software to obtain realistic results for power system simulation. The paper includes a case study with 99 distributed generators, 208 loads and 27 storage units. The GA results for the determination of the economic dispatch considering the generation forecast, storage management and load curtailment in each period (one hour) are compared with the ones obtained with a Mixed Integer Non-Linear Programming (MINLP) approach.
Resumo:
Currently, power systems (PS) already accommodate a substantial penetration of distributed generation (DG) and operate in competitive environments. In the future, as the result of the liberalisation and political regulations, PS will have to deal with large-scale integration of DG and other distributed energy resources (DER), such as storage and provide market agents to ensure a flexible and secure operation. This cannot be done with the traditional PS operational tools used today like the quite restricted information systems Supervisory Control and Data Acquisition (SCADA) [1]. The trend to use the local generation in the active operation of the power system requires new solutions for data management system. The relevant standards have been developed separately in the last few years so there is a need to unify them in order to receive a common and interoperable solution. For the distribution operation the CIM models described in the IEC 61968/70 are especially relevant. In Europe dispersed and renewable energy resources (D&RER) are mostly operated without remote control mechanisms and feed the maximal amount of available power into the grid. To improve the network operation performance the idea of virtual power plants (VPP) will become a reality. In the future power generation of D&RER will be scheduled with a high accuracy. In order to realize VPP decentralized energy management, communication facilities are needed that have standardized interfaces and protocols. IEC 61850 is suitable to serve as a general standard for all communication tasks in power systems [2]. The paper deals with international activities and experiences in the implementation of a new data management and communication concept in the distribution system. The difficulties in the coordination of the inconsistent developed in parallel communication and data management standards - are first addressed in the paper. The upcoming unification work taking into account the growing role of D&RER in the PS is shown. It is possible to overcome the lag in current practical experiences using new tools for creating and maintenance the CIM data and simulation of the IEC 61850 protocol – the prototype of which is presented in the paper –. The origin and the accuracy of the data requirements depend on the data use (e.g. operation or planning) so some remarks concerning the definition of the digital interface incorporated in the merging unit idea from the power utility point of view are presented in the paper too. To summarize some required future work has been identified.
Resumo:
Power Systems (PS), have been affected by substantial penetration of Distributed Generation (DG) and the operation in competitive environments. The future PS will have to deal with large-scale integration of DG and other distributed energy resources (DER), such as storage means, and provide to market agents the means to ensure a flexible and secure operation. Virtual power players (VPP) can aggregate a diversity of players, namely generators and consumers, and a diversity of energy resources, including electricity generation based on several technologies, storage and demand response. This paper proposes an artificial neural network (ANN) based methodology to support VPP resource schedule. The trained network is able to achieve good schedule results requiring modest computational means. A real data test case is presented.
Resumo:
In the energy management of the isolated operation of small power system, the economic scheduling of the generation units is a crucial problem. Applying right timing can maximize the performance of the supply. The optimal operation of a wind turbine, a solar unit, a fuel cell and a storage battery is searched by a mixed-integer linear programming implemented in General Algebraic Modeling Systems (GAMS). A Virtual Power Producer (VPP) can optimal operate the generation units, assured the good functioning of equipment, including the maintenance, operation cost and the generation measurement and control. A central control at system allows a VPP to manage the optimal generation and their load control. The application of methodology to a real case study in Budapest Tech, demonstrates the effectiveness of this method to solve the optimal isolated dispatch of the DC micro-grid renewable energy park. The problem has been converged in 0.09 s and 30 iterations.
Resumo:
The smart grid concept is rapidly evolving in the direction of practical implementations able to bring smart grid advantages into practice. Evolution in legacy equipment and infrastructures is not sufficient to accomplish the smart grid goals as it does not consider the needs of the players operating in a complex environment which is dynamic and competitive in nature. Artificial intelligence based applications can provide solutions to these problems, supporting decentralized intelligence and decision-making. A case study illustrates the importance of Virtual Power Players (VPP) and multi-player negotiation in the context of smart grids. This case study is based on real data and aims at optimizing energy resource management, considering generation, storage and demand response.
Resumo:
Distributed generation unlike centralized electrical generation aims to generate electrical energy on small scale as near as possible to load centers, interchanging electric power with the network. This work presents a probabilistic methodology conceived to assist the electric system planning engineers in the selection of the distributed generation location, taking into account the hourly load changes or the daily load cycle. The hourly load centers, for each of the different hourly load scenarios, are calculated deterministically. These location points, properly weighted according to their load magnitude, are used to calculate the best fit probability distribution. This distribution is used to determine the maximum likelihood perimeter of the area where each source distributed generation point should preferably be located by the planning engineers. This takes into account, for example, the availability and the cost of the land lots, which are factors of special relevance in urban areas, as well as several obstacles important for the final selection of the candidates of the distributed generation points. The proposed methodology has been applied to a real case, assuming three different bivariate probability distributions: the Gaussian distribution, a bivariate version of Freund’s exponential distribution and the Weibull probability distribution. The methodology algorithm has been programmed in MATLAB. Results are presented and discussed for the application of the methodology to a realistic case and demonstrate the ability of the proposed methodology for efficiently handling the determination of the best location of the distributed generation and their corresponding distribution networks.
Resumo:
Mestrado em Engenharia Química
Resumo:
Dissertação de Mestrado apresentado ao Instituto de Contabilidade e Administração do obtenção do grau de Mestre em Auditoria Auditoria, sob orientação de Adalmiro Álvaro Malheiro de Castro Andrade
Resumo:
This paper aims to present a contrastive approach between three different ways of building concepts after proving the similar syntactic possibilities that coexist in terms. However, from the semantic point of view we can see that each language family has a different distribution in meaning. But the most important point we try to show is that the differences found in the psychological process when communicating concepts should guide the translator and the terminologist in the target text production and the terminology planning process. Differences between languages in the information transmission process are due to the different roles the different types of knowledge play. We distinguish here the analytic-descriptive knowledge and the analogical knowledge among others. We also state that none of them is the best when determining the correctness of a term, but there has to be adequacy criteria in the selection process. This concept building or term building success is important when looking at the linguistic map of the information society.
Resumo:
A saúde em Portugal vive hoje mudanças significativas. A criação de modelos de Gestão Empresarial em instituições públicas visa a melhor qualidade ao menor custo. A aquisição de equipamento médico, cada vez mais sofisticado, exige das instituições esforços redobrados. A necessidade de redução dos custos acoplada à necessidade de aquisição de tecnologias cada vez mais avançadas exige que as instituições tomem mediadas mais rigorosas para melhorar o processo de aquisição. É importante estabelecer desde o início de um processo de aquisição, as exatas necessidades da instituição, com um conjunto de especificações bem detalhado do produto a adquirir bem como um conjunto exigências que devem ser feitas perante os fornecedores que salvaguardem a instituição. O conhecimento do equipamento a adquirir facilita todo o processo. Assim é de extrema importância garantir o estudo bastante alargado do equipamento, permitindo à instituição uma melhor avaliação do equipamento, aquando da seleção do mesmo. A garantia da confiabilidade metrológica é outro ponto muito importante a ter em conta no processo, uma vez que o sucesso dos cuidados de saúde parte da confiança e segurança que transmitem aos seus utentes. O objetivo deste trabalho é o estudo de Ventiladores Pulmonares (VP) focando essencialmente na seleção e aquisição destes equipamentos. Neste estudo faz-se também um estudo dos procedimentos de avaliação da confiabilidade metrológica dos VP, tendo em vista a definição dos testes de verificação a serem efetuados ao longo do processo de aquisição. É normalizado o Caderno de Encargos (CE) e respetivas especificações/requisitos técnicos, tentando comprar de acordo com as reais necessidades da instituição, visando o menor desperdício e garantido a melhor qualidade.
Resumo:
A navegação e a interpretação do meio envolvente por veículos autónomos em ambientes não estruturados continua a ser um grande desafio na actualidade. Sebastian Thrun, descreve em [Thr02], que o problema do mapeamento em sistemas robóticos é o da aquisição de um modelo espacial do meio envolvente do robô. Neste contexto, a integração de sistemas sensoriais em plataformas robóticas, que permitam a construção de mapas do mundo que as rodeia é de extrema importância. A informação recolhida desses dados pode ser interpretada, tendo aplicabilidade em tarefas de localização, navegação e manipulação de objectos. Até à bem pouco tempo, a generalidade dos sistemas robóticos que realizavam tarefas de mapeamento ou Simultaneous Localization And Mapping (SLAM), utilizavam dispositivos do tipo laser rangefinders e câmaras stereo. Estes equipamentos, para além de serem dispendiosos, fornecem apenas informação bidimensional, recolhidas através de cortes transversais 2D, no caso dos rangefinders. O paradigma deste tipo de tecnologia mudou consideravelmente, com o lançamento no mercado de câmaras RGB-D, como a desenvolvida pela PrimeSense TM e o subsequente lançamento da Kinect, pela Microsoft R para a Xbox 360 no final de 2010. A qualidade do sensor de profundidade, dada a natureza de baixo custo e a sua capacidade de aquisição de dados em tempo real, é incontornável, fazendo com que o sensor se tornasse instantaneamente popular entre pesquisadores e entusiastas. Este avanço tecnológico deu origem a várias ferramentas de desenvolvimento e interacção humana com este tipo de sensor, como por exemplo a Point Cloud Library [RC11] (PCL). Esta ferramenta tem como objectivo fornecer suporte para todos os blocos de construção comuns que uma aplicação 3D necessita, dando especial ênfase ao processamento de nuvens de pontos de n dimensões adquiridas a partir de câmaras RGB-D, bem como scanners laser, câmaras Time-of-Flight ou câmaras stereo. Neste contexto, é realizada nesta dissertação, a avaliação e comparação de alguns dos módulos e métodos constituintes da biblioteca PCL, para a resolução de problemas inerentes à construção e interpretação de mapas, em ambientes indoor não estruturados, utilizando os dados provenientes da Kinect. A partir desta avaliação, é proposta uma arquitectura de sistema que sistematiza o registo de nuvens de pontos, correspondentes a vistas parciais do mundo, num modelo global consistente. Os resultados da avaliação realizada à biblioteca PCL atestam a sua viabilidade, para a resolução dos problemas propostos. Prova da sua viabilidade, são os resultados práticos obtidos, da implementação da arquitectura de sistema proposta, que apresenta resultados de desempenho interessantes, como também boas perspectivas de integração deste tipo de conceitos e tecnologia em plataformas robóticas desenvolvidas no âmbito de projectos do Laboratório de Sistemas Autónomos (LSA).
Resumo:
A norfloxacina e o trimetoprim são dois antibióticos antibacterianos usados para o tratamento de infeções urinárias, intestinais e respiratórias. A maioria dos fármacos exige uma dosagem que garanta os níveis de segurança e eficácia de atuação. A necessidade de dosear os medicamentos e os seus metabolitos é assim um controlo imperioso e em muitos casos regular no tratamento de um paciente. Neste trabalho desenvolveram-se dois sensores eletroquímicos para a deteção da norfloxacina (NFX) e do trimetoprim (TMP), usando como superfície de suporte o carbono vítreo. A busca de novos materiais que conferiram maior seletividade e sensibilidade aos sistemas de deteção e por outro lado apresentem menores riscos para o paciente quando usados em dispositivos que permitam uma análise point-of-care, é especialmente importante e pode ser uma parte crucial do processo de decisão clínica. Assim, os polímeros molecularmente impresos enquadram-se nesse perfil e o seu uso tem vindo a ser cada vez mais avaliado. A impressão molecular é uma tecnologia capaz de produzir polímeros que incorporam as moléculas do analito e que após remoção por solventes específicos, permitem dotá-los de locais específicos de reconhecimento estereoquímico. A seleção do pirrol como polímero molecularmente impresso (MIP) permitiu construir com sucesso os sensores para doseamento dos antibióticos. A fim de aumentar a sensibilidade do método incorporou-se grafeno na superfície do elétrodo. Este material tem vindo a ser largamente utilizado devido às suas propriedades: estrutura molecular, condutividade elétrica e aumento da superfície são algumas das características que mais despertam o interesse para a sua aplicação neste projeto. Os sensores desenvolvidos foram incorporados em sistemas eletroquímicos. Os métodos voltamétricos aplicados foram a voltametria cíclica, a voltametria de onda quadrada e ainda a impedância. As condições de análise foram otimizadas no que respeita à polimerização do pirrol (concentração do polímero, número de ciclos de eletropolimerização e respetivos potenciais aplicados, tempo de incubação, solvente de remoção do analito), ao pH da solução do fármaco, à gama de concentrações dos antibióticos e aos parâmetros voltamétricos dos métodos de análise. Para cada um dos antibióticos um elétrodo não-impresso foi também preparado, usando o procedimento de polimerização mas sem a presença da molécula do analito, e foi usado como controlo. O sensor desenvolvido para o trimetoprim foi usado no doseamento do fármaco em amostras de urina. As amostras foram analisadas sem qualquer diluição, apenas foram centrifugadas para remoção de proteínas e algum interferente. Os sensores construídos apresentaram comportamento linear na gama de concentrações entre 102 e 107 mol/L. Os resultados mostram boa precisão (desvios padrão inferiores a 11%) e os limites de deteção foram de 8,317 e 1,307 mol/L para a norfloxacina e o trimetoprim, respetivamente. Para validação do método foram ainda efetuados ensaios de recuperação tendo obtido valores superiores a 94%.
Resumo:
In the present work we report the details of the preparation and characterization results of Cu2ZnSnS4 (CZTS) based solar cells. The CZTS absorber was obtained by sulphurization of dc magnetron sputtered Zn/Sn/Cu precursor layers. The morphology, composition and structure of the absorber layer were studied by scanning electron microscopy, energy dispersive spectroscopy, X-ray diffraction and Raman scattering. The majority carrier type was identified via a hot point probe analysis. The hole density, space charge region width and band gap energy were estimated from the external quantum efficiency measurements. A MoS2 layer that formed during the sulphurization process was also identified and analyzed in this work. The solar cells had the following structure: soda lime glass/Mo/CZTS/CdS/i-ZnO/ZnO:Al/Al grid. The best solar cell showed an opencircuit voltage of 345 mV, a short-circuit current density of 4.42 mA/cm2, a fill factor of 44.29% and an efficiency of 0.68% under illumination in simulated standard test conditions: AM 1.5 and 100 mW/cm2.
Resumo:
This paper presents a modified Particle Swarm Optimization (PSO) methodology to solve the problem of energy resources management with high penetration of distributed generation and Electric Vehicles (EVs) with gridable capability (V2G). The objective of the day-ahead scheduling problem in this work is to minimize operation costs, namely energy costs, regarding he management of these resources in the smart grid context. The modifications applied to the PSO aimed to improve its adequacy to solve the mentioned problem. The proposed Application Specific Modified Particle Swarm Optimization (ASMPSO) includes an intelligent mechanism to adjust velocity limits during the search process, as well as self-parameterization of PSO parameters making it more user-independent. It presents better robustness and convergence characteristics compared with the tested PSO variants as well as better constraint handling. This enables its use for addressing real world large-scale problems in much shorter times than the deterministic methods, providing system operators with adequate decision support and achieving efficient resource scheduling, even when a significant number of alternative scenarios should be considered. The paper includes two realistic case studies with different penetration of gridable vehicles (1000 and 2000). The proposed methodology is about 2600 times faster than Mixed-Integer Non-Linear Programming (MINLP) reference technique, reducing the time required from 25 h to 36 s for the scenario with 2000 vehicles, with about one percent of difference in the objective function cost value.