80 resultados para Network (Re) Organization


Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper presents a methodology for distribution networks reconfiguration in outage presence in order to choose the reconfiguration that presents the lower power losses. The methodology is based on statistical failure and repair data of the distribution power system components and uses fuzzy-probabilistic modelling for system component outage parameters. Fuzzy membership functions of system component outage parameters are obtained by statistical records. A hybrid method of fuzzy set and Monte Carlo simulation based on the fuzzy-probabilistic models allows catching both randomness and fuzziness of component outage parameters. Once obtained the system states by Monte Carlo simulation, a logical programming algorithm is applied to get all possible reconfigurations for every system state. In order to evaluate the line flows and bus voltages and to identify if there is any overloading, and/or voltage violation a distribution power flow has been applied to select the feasible reconfiguration with lower power losses. To illustrate the application of the proposed methodology to a practical case, the paper includes a case study that considers a real distribution network.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The large increase of Distributed Generation (DG) in Power Systems (PS) and specially in distribution networks makes the management of distribution generation resources an increasingly important issue. Beyond DG, other resources such as storage systems and demand response must be managed in order to obtain more efficient and “green” operation of PS. More players, such as aggregators or Virtual Power Players (VPP), that operate these kinds of resources will be appearing. This paper proposes a new methodology to solve the distribution network short term scheduling problem in the Smart Grid context. This methodology is based on a Genetic Algorithms (GA) approach for energy resource scheduling optimization and on PSCAD software to obtain realistic results for power system simulation. The paper includes a case study with 99 distributed generators, 208 loads and 27 storage units. The GA results for the determination of the economic dispatch considering the generation forecast, storage management and load curtailment in each period (one hour) are compared with the ones obtained with a Mixed Integer Non-Linear Programming (MINLP) approach.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Power system organization has gone through huge changes in the recent years. Significant increase in distributed generation (DG) and operation in the scope of liberalized markets are two relevant driving forces for these changes. More recently, the smart grid (SG) concept gained increased importance, and is being seen as a paradigm able to support power system requirements for the future. This paper proposes a computational architecture to support day-ahead Virtual Power Player (VPP) bid formation in the smart grid context. This architecture includes a forecasting module, a resource optimization and Locational Marginal Price (LMP) computation module, and a bid formation module. Due to the involved problems characteristics, the implementation of this architecture requires the use of Artificial Intelligence (AI) techniques. Artificial Neural Networks (ANN) are used for resource and load forecasting and Evolutionary Particle Swarm Optimization (EPSO) is used for energy resource scheduling. The paper presents a case study that considers a 33 bus distribution network that includes 67 distributed generators, 32 loads and 9 storage units.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper present a methodology to choose the distribution networks reconfiguration that presents the lower power losses. The proposed methodology is based on statistical failure and repair data of the distribution power system components and uses fuzzy-probabilistic modeling for system component outage parameters. The proposed hybrid method using fuzzy sets and Monte Carlo simulation based on the fuzzyprobabilistic models allows catching both randomness and fuzziness of component outage parameters. A logic programming algorithm is applied, once obtained the system states by Monte Carlo Simulation, to get all possible reconfigurations for each system state. To evaluate the line flows and bus voltages and to identify if there is any overloading, and/or voltage violation an AC load flow has been applied to select the feasible reconfiguration with lower power losses. To illustrate the application of the proposed methodology, the paper includes a case study that considers a 115 buses distribution network.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Locational Marginal Prices (LMP) are important pricing signals for the participants of competitive electricity markets, as the effects of transmission losses and binding constraints are embedded in LMPs [1],[2]. This paper presents a software tool that evaluates the nodal marginal prices considering losses and congestion. The initial dispatch is based on all the electricity transactions negotiated in the pool and in bilateral contracts. It must be checked if the proposed initial dispatch leads to congestion problems; if a congestion situation is detected, it must be solved. An AC power flow is used to verify if there are congestion situations in the initial dispatch. Whenever congestion situations are detected, they are solved and a feasible dispatch (re-dispatch) is obtained. After solving the congestion problems, the simulator evaluates LMP. The paper presents a case study based on the the 118 IEEE bus test network.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Power Systems (PS), have been affected by substantial penetration of Distributed Generation (DG) and the operation in competitive environments. The future PS will have to deal with large-scale integration of DG and other distributed energy resources (DER), such as storage means, and provide to market agents the means to ensure a flexible and secure operation. Virtual power players (VPP) can aggregate a diversity of players, namely generators and consumers, and a diversity of energy resources, including electricity generation based on several technologies, storage and demand response. This paper proposes an artificial neural network (ANN) based methodology to support VPP resource schedule. The trained network is able to achieve good schedule results requiring modest computational means. A real data test case is presented.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Agility refers to the manufacturing system ability to rapidly adapt to market and environmental changes in efficient and cost-effective ways. This paper addresses the development of self-organization methods to enhance the operations of a scheduling system, by integrating scheduling system, configuration and optimization into a single autonomic process requiring minimal manual intervention to increase productivity and effectiveness while minimizing complexity for users. We intend to conceptualize real manufacturing systems as interacting autonomous entities in order to build future Decision Support Systems (DSS) for Scheduling in agile manufacturing environments.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mestrado em Engenharia Electrotécnica e de Computadores

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mestrado em Engenharia Informática

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mestrado em Engenharia Electrotécnica e de Computadores

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho surgiu no âmbito da Tese de Mestrado em Engenharia Química - Ramo Optimização Energética na Indústria Química, aliando a necessidade da Empresa Monteiro Ribas – Indústrias, S.A. em resolver alguns problemas relacionados com as estufas da unidade J da fábrica de revestimentos. Outro dos objectivos era propor melhorias de eficiência energética neste sector da empresa. Para tal, foi necessário fazer um levantamento energético de toda a unidade, o que permitiu verificar que as estufas de secagem (Recobrimento 1 e 2) seriam o principal objecto de estudo. O levantamento energético da empresa permitiu conhecer o seu consumo anual de energia de 697,9 tep, o que a classifica, segundo o Decreto-lei nº 71 de 15 de Abril de 2008, como Consumidora Intensiva de Energia (CIE). Além disso, as situações que devem ser alvo de melhoria são: a rede de termofluido, que apresenta válvulas sem isolamento, o sistema de iluminação, que não é o mais eficiente e a rede de distribuição de ar comprimido, que não tem a estrutura mais adequada. Desta forma sugere-se que a rede de distribuição de termofluido passe a ter válvulas isoladas com lã de rocha, o investimento total é de 2.481,56 €, mas a poupança pode ser de 21.145,14 €/ano, com o período de retorno de 0,12 anos. No sistema de iluminação propõe-se a substituição dos balastros normais por electrónicos, o investimento total é de 13.873,74 €, mas a poupança é de 2.620,26 €/ano, com período de retorno de 5 anos. No processo de secagem das linhas de recobrimento mediram-se temperaturas de todos os seus componentes, velocidades de ar o que permitiu conhecer a distribuição do calor fornecido pelo termofluido. No Recobrimento 1, o ar recebe entre 39 a 51% do calor total, a tela recebe cerca de 25% e na terceira estufa este é apenas de 6%. Nesta linha as perdas de calor por radiação oscilam entre 6 e 11% enquanto as perdas por convecção representam cerca de 17 a 44%. Como o calor que a tela recebe é muito inferior ao calor recebido pelo ar no Recobrimento 1, propõe-se uma redução do caudal de ar que entra na estufa, o que conduzirá certamente à poupança de energia térmica. No Recobrimento 2 o calor fornecido ao ar representa cerca de 51 a 77% do calor total e o cedido à tela oscila entre 2 e 3%. As perdas de calor por convecção oscilam entre 12 e 26%, enquanto que as perdas por radiação têm valores entre 4 e 8%. No que diz respeito ao calor necessário para evaporar os solventes este oscila entre os 4 e 13%. Os balanços de massa e energia realizados ao processo de secagem permitiram ainda determinar o rendimento das 3 estufas do Recobrimento 1, com 36, 47 e 24% paras as estufa 1, 2 e 3, respectivamente. No Recobrimento 2 os valores de rendimento foram superiores, tendo-se obtido valores próximos dos 41, 81 e 88%, para as estufas 1, 2 e 3, respectivamente. Face aos resultados obtidos propõem-se a reengenharia do processo introduzindo permutadores compactos para aquecer o ar antes de este entrar nas estufas. O estudo desta alteração foi apenas realizado para a estufa 1 do Recobrimento 1, tendo-se obtido uma área de transferência de calor de 6,80 m2, um investimento associado de 8.867,81 €. e uma poupança de 708,88 €/ano, com um período de retorno do investimento de 13 anos. Outra sugestão consiste na recirculação de parte do ar de saída (5%), que conduz à poupança de 158,02 €/ano. Estes valores, pouco significativos, não estimulam a adopção das referidas sugestões.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Um dos factores mais determinantes para o sucesso de uma organização é a qualidade das decisões tomadas. Para que as decisões tomadas sejam melhores e potenciem a competitividade das organizações, sistemas como os Sistemas de Apoio à Tomada de Decisão em Grupo (SADG) têm sido fortemente desenvolvidos e estudados nas últimas décadas. Cada vez mais, estes sistemas são populados com um maior número de dados, com o objectivo de serem mais assertivos. Considera-se que com determinados dados seja possível que o sistema possa aferir a satisfação dos participantes com as decisões tomadas, tendencialmente de forma automática. Hoje em dia, as análises de satisfação com as decisões não contemplam na sua maioria factores imprescindíveis, como os emocionais e de personalidade, sendo que os modelos existentes tendem a ser incompletos. Nesta dissertação propõe-se uma metodologia que permite a um SADG aferir a satisfação do participante com a decisão, considerando aspectos como a personalidade, as emoções e as expectativas. A metodologia desenvolvida foi implementada num SADG (ArgEmotionsAgents) com uma arquitectura multiagente, composto por agentes que reflectem participantes reais e que estão modelados com a sua personalidade. De acordo com a sua personalidade, esses agentes trocam argumentos persuasivos de forma a obterem uma decisão consensual. No processo de troca de argumentos os agentes geram emoções que afectam o seu humor. A implementação da metodologia no ArgEmotionsAgents permite que, no final de uma reunião, seja possível aferir a satisfação dos agentes participantes com a decisão final e com o processo que levou à tomada de decisão. De forma a validar a metodologia proposta bem como a implementação que foi desenvolvida, foram realizadas quatro experiências em diferentes cenários. Numa primeira experiência, foi aferida a satisfação dos quatro agentes participantes. Nas experiências seguintes, um dos agentes participantes foi usado como referência e foram alteradas configurações (expectativas, personalidade e reavaliação das alternativas) para perceber de que forma os vários factores afectam a satisfação. Com o estudo concluiu-se que todos os factores considerados no modelo afectam a satisfação. A forma como a satisfação é afectada por cada um dos factores vai ao encontro da lógica apresentada no estado da arte. Os resultados de satisfação aferidos pelo modelo são congruentes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introdução Actualmente, as mensagens electrónicas são consideradas um importante meio de comunicação. As mensagens electrónicas – vulgarmente conhecidas como emails – são utilizadas fácil e frequentemente para enviar e receber o mais variado tipo de informação. O seu uso tem diversos fins gerando diariamente um grande número de mensagens e, consequentemente um enorme volume de informação. Este grande volume de informação requer uma constante manipulação das mensagens de forma a manter o conjunto organizado. Tipicamente esta manipulação consiste em organizar as mensagens numa taxonomia. A taxonomia adoptada reflecte os interesses e as preferências particulares do utilizador. Motivação A organização manual de emails é uma actividade morosa e que consome tempo. A optimização deste processo através da implementação de um método automático, tende a melhorar a satisfação do utilizador. Cada vez mais existe a necessidade de encontrar novas soluções para a manipulação de conteúdo digital poupando esforços e custos ao utilizador; esta necessidade, concretamente no âmbito da manipulação de emails, motivou a realização deste trabalho. Hipótese O objectivo principal deste projecto consiste em permitir a organização ad-hoc de emails com um esforço reduzido por parte do utilizador. A metodologia proposta visa organizar os emails num conjunto de categorias, disjuntas, que reflectem as preferências do utilizador. A principal finalidade deste processo é produzir uma organização onde as mensagens sejam classificadas em classes apropriadas requerendo o mínimo número esforço possível por parte do utilizador. Para alcançar os objectivos estipulados, este projecto recorre a técnicas de mineração de texto, em especial categorização automática de texto, e aprendizagem activa. Para reduzir a necessidade de inquirir o utilizador – para etiquetar exemplos de acordo com as categorias desejadas – foi utilizado o algoritmo d-confidence. Processo de organização automática de emails O processo de organizar automaticamente emails é desenvolvido em três fases distintas: indexação, classificação e avaliação. Na primeira fase, fase de indexação, os emails passam por um processo transformativo de limpeza que visa essencialmente gerar uma representação dos emails adequada ao processamento automático. A segunda fase é a fase de classificação. Esta fase recorre ao conjunto de dados resultantes da fase anterior para produzir um modelo de classificação, aplicando-o posteriormente a novos emails. Partindo de uma matriz onde são representados emails, termos e os seus respectivos pesos, e um conjunto de exemplos classificados manualmente, um classificador é gerado a partir de um processo de aprendizagem. O classificador obtido é então aplicado ao conjunto de emails e a classificação de todos os emails é alcançada. O processo de classificação é feito com base num classificador de máquinas de vectores de suporte recorrendo ao algoritmo de aprendizagem activa d-confidence. O algoritmo d-confidence tem como objectivo propor ao utilizador os exemplos mais significativos para etiquetagem. Ao identificar os emails com informação mais relevante para o processo de aprendizagem, diminui-se o número de iterações e consequentemente o esforço exigido por parte dos utilizadores. A terceira e última fase é a fase de avaliação. Nesta fase a performance do processo de classificação e a eficiência do algoritmo d-confidence são avaliadas. O método de avaliação adoptado é o método de validação cruzada denominado 10-fold cross validation. Conclusões O processo de organização automática de emails foi desenvolvido com sucesso, a performance do classificador gerado e do algoritmo d-confidence foi relativamente boa. Em média as categorias apresentam taxas de erro relativamente baixas, a não ser as classes mais genéricas. O esforço exigido pelo utilizador foi reduzido, já que com a utilização do algoritmo d-confidence obteve-se uma taxa de erro próxima do valor final, mesmo com um número de casos etiquetados abaixo daquele que é requerido por um método supervisionado. É importante salientar, que além do processo automático de organização de emails, este projecto foi uma excelente oportunidade para adquirir conhecimento consistente sobre mineração de texto e sobre os processos de classificação automática e recuperação de informação. O estudo de áreas tão interessantes despertou novos interesses que consistem em verdadeiros desafios futuros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com o aumento da concorrência, a crise económica que atravessamos e com a conquista de novos mercados no horizonte, surge a necessidade de responder a essas situações com uma melhor prestação do sistema produtivo no sentido de reduzir tempos de produção e de baixar os custos dos mesmos, podendo assim dar uma resposta mais rápida e competitiva às expectativas dos clientes. Esta dissertação tem como objectivo analisar todo o sistema produtivo da empresa, desenvolvendo um estudo adequado ao sistema actual de fabrico de mobiliário, propondo melhorias que proporcionem uma melhor organização e uma redução dos custos de fabrico. Fez-se também um levantamento do sistema de planeamento existente, detectando pontos de melhoria que, para além de um maior controlo e organização, permitem, em alguns aspectos, a melhoria do sistema produtivo. Foi apresentada uma proposta de um processo de reengenharia aplicado ao sistema produtivo, tendo em vista implementar as medidas de melhoria, indo ao encontro das situações identificadas, tornando assim o sistema produtivo mais eficiente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ancillary services represent a good business opportunity that must be considered by market players. This paper presents a new methodology for ancillary services market dispatch. The method considers the bids submitted to the market and includes a market clearing mechanism based on deterministic optimization. An Artificial Neural Network is used for day-ahead prediction of Regulation Down, regulation-up, Spin Reserve and Non-Spin Reserve requirements. Two test cases based on California Independent System Operator data concerning dispatch of Regulation Down, Regulation Up, Spin Reserve and Non-Spin Reserve services are included in this paper to illustrate the application of the proposed method: (1) dispatch considering simple bids; (2) dispatch considering complex bids.