991 resultados para Air power
Multi-criteria optimisation approach to increase the delivered power in radial distribution networks
Resumo:
This study proposes a new methodology to increase the power delivered to any load point in a radial distribution network, through the identification of new investments in order to improve the repair time. This research work is innovative and consists in proposing a full optimisation model based on mixed-integer non-linear programming considering the Pareto front technique. The goal is to achieve a reduction in repair times of the distribution networks components, while minimising the costs of that reduction as well as non-supplied energy costs. The optimisation model considers the distribution network technical constraints, the substation transformer taps, and it is able to choose the capacitor banks size. A case study based on a 33-bus distribution network is presented in order to illustrate in detail the application of the proposed methodology.
Resumo:
Proceedings of the 13th International UFZ-Deltares Conference on Sustainable Use and Management of Soil, Sediment and Water Resources - 9–12 June 2015 • Copenhagen, Denmark
Resumo:
The Internet of Things (IoT) has emerged as a paradigm over the last few years as a result of the tight integration of the computing and the physical world. The requirement of remote sensing makes low-power wireless sensor networks one of the key enabling technologies of IoT. These networks encompass several challenges, especially in communication and networking, due to their inherent constraints of low-power features, deployment in harsh and lossy environments, and limited computing and storage resources. The IPv6 Routing Protocol for Low Power and Lossy Networks (RPL) [1] was proposed by the IETF ROLL (Routing Over Low-power Lossy links) working group and is currently adopted as an IETF standard in the RFC 6550 since March 2012. Although RPL greatly satisfied the requirements of low-power and lossy sensor networks, several issues remain open for improvement and specification, in particular with respect to Quality of Service (QoS) guarantees and support for mobility. In this paper, we focus mainly on the RPL routing protocol. We propose some enhancements to the standard specification in order to provide QoS guarantees for static as well as mobile LLNs. For this purpose, we propose OF-FL (Objective Function based on Fuzzy Logic), a new objective function that overcomes the limitations of the standardized objective functions that were designed for RPL by considering important link and node metrics, namely end-to-end delay, number of hops, ETX (Expected transmission count) and LQL (Link Quality Level). In addition, we present the design of Co-RPL, an extension to RPL based on the corona mechanism that supports mobility in order to overcome the problem of slow reactivity to frequent topology changes and thus providing a better quality of service mainly in dynamic networks application. Performance evaluation results show that both OF-FL and Co-RPL allow a great improvement when compared to the standard specification, mainly in terms of packet loss ratio and average network latency. 2015 Elsevier B.V. Al
Resumo:
Because of the scientific evidence showing that arsenic (As), cadmium (Cd), and nickel (Ni) are human genotoxic carcinogens, the European Union (EU) recently set target values for metal concentration in ambient air (As: 6 ng/m3, Cd: 5 ng/m3, Ni: 20 ng/m3). The aim of our study was to determine the concentration levels of these trace elements in Porto Metropolitan Area (PMA) in order to assess whether compliance was occurring with these new EU air quality standards. Fine (PM2.5) and inhalable (PM10) air particles were collected from October 2011 to July 2012 at two different (urban and suburban) locations in PMA. Samples were analyzed for trace elements content by inductively coupled plasma–mass spectrometry (ICP-MS). The study focused on determination of differences in trace elements concentration between the two sites, and between PM2.5 and PM10, in order to gather information regarding emission sources. Except for chromium (Cr), the concentration of all trace elements was higher at the urban site. However, results for As, Cd, Ni, and lead (Pb) were well below the EU limit/target values (As: 1.49 ± 0.71 ng/m3; Cd: 1.67 ± 0.92 ng/m3; Ni: 3.43 ± 3.23 ng/m3; Pb: 17.1 ± 10.1 ng/m3) in the worst-case scenario. Arsenic, Cd, Ni, Pb, antimony (Sb), selenium (Se), vanadium (V), and zinc (Zn) were predominantly associated to PM2.5, indicating that anthropogenic sources such as industry and road traffic are the main source of these elements. High enrichment factors (EF > 100) were obtained for As, Cd, Pb, Sb, Se, and Zn, further confirming their anthropogenic origin.
Resumo:
Transformers may be classified according to dielectric insulation material as follows: • Oil-filled transformers • Dry type transformers
Resumo:
Cloud data centers have been progressively adopted in different scenarios, as reflected in the execution of heterogeneous applications with diverse workloads and diverse quality of service (QoS) requirements. Virtual machine (VM) technology eases resource management in physical servers and helps cloud providers achieve goals such as optimization of energy consumption. However, the performance of an application running inside a VM is not guaranteed due to the interference among co-hosted workloads sharing the same physical resources. Moreover, the different types of co-hosted applications with diverse QoS requirements as well as the dynamic behavior of the cloud makes efficient provisioning of resources even more difficult and a challenging problem in cloud data centers. In this paper, we address the problem of resource allocation within a data center that runs different types of application workloads, particularly CPU- and network-intensive applications. To address these challenges, we propose an interference- and power-aware management mechanism that combines a performance deviation estimator and a scheduling algorithm to guide the resource allocation in virtualized environments. We conduct simulations by injecting synthetic workloads whose characteristics follow the last version of the Google Cloud tracelogs. The results indicate that our performance-enforcing strategy is able to fulfill contracted SLAs of real-world environments while reducing energy costs by as much as 21%.
Resumo:
The integration of wind power in eletricity generation brings new challenges to unit commitment due to the random nature of wind speed. For this particular optimisation problem, wind uncertainty has been handled in practice by means of conservative stochastic scenario-based optimisation models, or through additional operating reserve settings. However, generation companies may have different attitudes towards operating costs, load curtailment, or waste of wind energy, when considering the risk caused by wind power variability. Therefore, alternative and possibly more adequate approaches should be explored. This work is divided in two main parts. Firstly we survey the main formulations presented in the literature for the integration of wind power in the unit commitment problem (UCP) and present an alternative model for the wind-thermal unit commitment. We make use of the utility theory concepts to develop a multi-criteria stochastic model. The objectives considered are the minimisation of costs, load curtailment and waste of wind energy. Those are represented by individual utility functions and aggregated in a single additive utility function. This last function is adequately linearised leading to a mixed-integer linear program (MILP) model that can be tackled by general-purpose solvers in order to find the most preferred solution. In the second part we discuss the integration of pumped-storage hydro (PSH) units in the UCP with large wind penetration. Those units can provide extra flexibility by using wind energy to pump and store water in the form of potential energy that can be generated after during peak load periods. PSH units are added to the first model, yielding a MILP model with wind-hydro-thermal coordination. Results showed that the proposed methodology is able to reflect the risk profiles of decision makers for both models. By including PSH units, the results are significantly improved.
Resumo:
Em 2006, a IEA (Agência Internacional de Energia), publicou alguns estudos de consumos mundiais de energia. Naquela altura, apontava na fabricação de produtos, um consumo mundial de energia elétrica, de origem fóssil de cerca 86,16 EJ/ano (86,16×018 J) e um consumo de energia nos sistemas de vapor de 32,75 EJ/ano. Evidenciou também nesses estudos que o potencial de poupança de energia nos sistemas de vapor era de 3,27 EJ/ano. Ou seja, quase tanto como a energia consumida nos sistemas de vapor da U.E. Não se encontraram números relativamente a Portugal, mas comparativamente com outros Países publicitados com alguma similaridade, o consumo de energia em vapor rondará 0,2 EJ/ano e por conseguinte um potencial de poupança de cerca 0,02 EJ/ano, ou 5,6 × 106 MWh/ano ou uma potência de 646 MW, mais do que a potência de cinco barragens Crestuma/Lever! Trata-se efetivamente de muita energia; interessa por isso perceber o onde e o porquê deste desperdício. De um modo muito modesto, pretende-se com este trabalho dar algum contributo neste sentido. Procurou-se evidenciar as possibilidades reais de os utilizadores de vapor de água na indústria reduzirem os consumos de energia associados à sua produção. Não estão em causa as diferentes formas de energia para a geração de vapor, sejam de origem fóssil ou renovável; interessou neste trabalho estudar o modo de como é manuseado o vapor na sua função de transporte de energia térmica, e de como este poderá ser melhorado na sua eficiência de cedência de calor, idealmente com menor consumo de energia. Com efeito, de que servirá se se optou por substituir o tipo de queima para uma mais sustentável se a jusante se continuarem a verificarem desperdícios, descarga exagerada nas purgas das caldeiras com perda de calor associada, emissões permanentes de vapor para a atmosfera em tanques de condensado, perdas por válvulas nos vedantes, purgadores avariados abertos, pressão de vapor exageradamente alta atendendo às temperaturas necessárias, “layouts” do sistema de distribuição mal desenhados, inexistência de registos de produção e consumos de vapor, etc. A base de organização deste estudo foi o ciclo de vapor: produção, distribuição, consumo e recuperação de condensado. Pareceu importante incluir também o tratamento de água, atendendo às implicações na transferência de calor das superfícies com incrustações. Na produção de vapor, verifica-se que os maiores problemas de perda de energia têm a ver com a falta de controlo, no excesso de ar e purgas das caldeiras em exagero. Na distribuição de vapor aborda-se o dimensionamento das tubagens, necessidade de purgas a v montante das válvulas de controlo, a redução de pressão com válvulas redutoras tradicionais; será de destacar a experiência americana no uso de micro turbinas para a redução de pressão com produção simultânea de eletricidade. Em Portugal não se conhecem instalações com esta opção. Fabricantes da República Checa e Áustria, têm tido sucesso em algumas dezenas de instalações de redução de pressão em diversos países europeus (UK, Alemanha, R. Checa, França, etc.). Para determinação de consumos de vapor, para projeto ou mesmo para estimativa em máquinas existentes, disponibiliza-se uma série de equações para os casos mais comuns. Dá-se especial relevo ao problema que se verifica numa grande percentagem de permutadores de calor, que é a estagnação de condensado - “stalled conditions”. Tenta-se também evidenciar as vantagens da recuperação de vapor de flash (infelizmente de pouca tradição em Portugal), e a aplicação de termocompressores. Finalmente aborda-se o benchmarking e monitorização, quer dos custos de vapor quer dos consumos específicos dos produtos. Esta abordagem é algo ligeira, por manifesta falta de estudos publicados. Como trabalhos práticos, foram efetuados levantamentos a instalações de vapor em diversos sectores de atividades; 1. ISEP - Laboratório de Química. Porto, 2. Prio Energy - Fábrica de Biocombustíveis. Porto de Aveiro. 3. Inapal Plásticos. Componentes de Automóvel. Leça do Balio, 4. Malhas Sonix. Tinturaria Têxtil. Barcelos, 5. Uma instalação de cartão canelado e uma instalação de alimentos derivados de soja. Também se inclui um estudo comparativo de custos de vapor usado nos hospitais: quando produzido por geradores de vapor com queima de combustível e quando é produzido por pequenos geradores elétricos. Os resultados estão resumidos em tabelas e conclui-se que se o potencial de poupança se aproxima do referido no início deste trabalho.
Resumo:
A liberalização dos mercados de energia elétrica e a crescente integração dos recursos energéticos distribuídos nas redes de distribuição, nomeadamente as unidades de produção distribuída, os sistemas de controlo de cargas através dos programas de demand response, os sistemas de armazenamento e os veículos elétricos, representaram uma evolução no paradigma de operação e gestão dos sistemas elétricos. Este novo paradigma de operação impõe o desenvolvimento de novas metodologias de gestão e controlo que permitam a integração de todas as novas tecnologias de forma eficiente e sustentável. O principal contributo deste trabalho reside no desenvolvimento de metodologias para a gestão de recursos energéticos no contexto de redes inteligentes, que contemplam três horizontes temporais distintos (24 horas, 1 hora e 5 minutos). As metodologias consideram os escalonamentos anteriores assim como as previsões atualizadas de forma a melhorar o desempenho total do sistema e consequentemente aumentar a rentabilidade dos agentes agregadores. As metodologias propostas foram integradas numa ferramenta de simulação, que servirá de apoio à decisão de uma entidade agregadora designada por virtual power player. Ao nível das metodologias desenvolvidas são propostos três algoritmos de gestão distintos, nomeadamente para a segunda (1 hora) e terceira fase (5 minutos) da ferramenta de gestão, diferenciados pela influência que os períodos antecedentes e seguintes têm no período em escalonamento. Outro aspeto relevante apresentado neste documento é o teste e a validação dos modelos propostos numa plataforma de simulação comercial. Para além das metodologias propostas, a aplicação permitiu validar os modelos dos equipamentos considerados, nomeadamente, ao nível das redes de distribuição e dos recursos energéticos distribuidos. Nesta dissertação são apresentados três casos de estudos, cada um com diferentes cenários referentes a cenários de operação futuros. Estes casos de estudos são importantes para verificar a viabilidade da implementação das metodologias e algoritmos propostos. Adicionalmente são apresentadas comparações das metodologias propostas relativamente aos resultados obtidos, complexidade de gestão em ambiente de simulação para as diferentes fases da ferramenta proposta e os benefícios e inconvenientes no uso da ferramenta proposta.
Resumo:
Nos últimos anos tem-se assistido à introdução de novos dispositivos de medição da poluição do ar baseados na utilização de sensores de baixo custo. A utilização menos complexa destes sistemas, possibilita a obtenção de dados com elevada resolução temporal e espacial, abrindo novas oportunidades para diferentes metodologias de estudos de monitorização da poluição do ar. Apesar de apresentarem capacidades analíticas distantes dos métodos de referência, a utilização destes sensores tem sido sugerida e incentivada pela União Europeia no âmbito das medições indicativas previstas na Diretiva 2008/50/CE, com uma incerteza expandida máxima de 25%. O trabalho desenvolvido no âmbito da disciplina de Projeto consistiu na escolha, caracterização e utilização em medições reais de um sensor de qualidade do ar, integrado num equipamento protótipo desenvolvido com esse fim, visando obtenção uma estimativa da incerteza de medição associada à utilização deste dispositivo através da aplicação da metodologia de demonstração de equivalência de métodos de medição de qualidade do ar definida pela União Europeia. A pesquisa bibliográfica realizada permitiu constatar que o monóxido de carbono é neste momento o parâmetro de qualidade do ar que permite ser medido de forma mais exata através da utilização de sensores, nomeadamente o sensor eletroquímico da marca Alphasense, modelo COB4, amplamente utilizado em projetos de desenvolvimento neste cotexto de monitorização ambiental. O sensor foi integrado num sistema de medição com o objetivo de poder ser utlizado em condições de autonomia de fornecimento de energia elétrica, aquisição interna dos dados, tendo em consideração ser o mais pequeno possível e de baixo custo. Foi utlizado um sistema baseado na placa Arduino Uno com gravação de dados em cartão de memória SD, baterias e painel solar, permitindo para além do registo das tensões elétricas do sensor, a obtenção dos valores de temperatura, humidade relativa e pressão atmosférica, com um custo global a rondar os 300 euros. Numa primeira fase foram executados um conjunto de testes laboratoriais que permitiram a determinação de várias características de desempenho em dois sensores iguais: tempo de resposta, a equação modelo do sensor, avaliação da repetibilidade, desvio de curto e longo termo, interferência da temperatura e histerese. Os resultados demonstraram um comportamento dos sensores muito linear, com um tempo de resposta inferior a um minuto e com uma equação modelo do sensor dependente da variação da temperatura. A estimativa da incerteza expandida laboratorial ficou, para ambos os sensores, abaixo dos 10%. Após a realização de duas campanhas reais de medição de CO em que os valores foram muito baixos, foi realizada uma campanha de quinze dias num parque de estacionamento subterrâneo que permitiu a obtenção de concentrações suficientemente elevadas e a comparação dos resultados dos sensores com o método de referência em toda a gama de medição (0 a 12 mol.mol-1). Os valores de concentração obtidos pelos dois sensores demonstraram uma excelente correlação com o método de referência (r2≥0,998), obtendo-se resultados para a estimativa da incerteza expandida de campo inferiores aos obtidos para a incerteza laboratorial, cumprindo o objetivo de qualidade de dados definido para as medições indicativas de incerteza expandida máxima de 25%. Os resultados observados durante o trabalho realizado permitiram confirmar o bom desempenho que este tipo de sensor pode ter no âmbito de medições de poluição do ar com um caracter mais indicativo.
Resumo:
O presente trabalho centrou-se na otimização do rendimento térmico de duas caldeiras aquatubulares da empresa RAR- Refinaria de Açúcar Reunidas, com a finalidade de identificar onde ocorrem perdas de energia e, desta forma, propor soluções para a sua minimização. Para tal, realizaram-se ensaios em duas caldeiras da empresa providas de queimadores mistos, ou seja podem operar com fuelóleo e gás natural, tanto individualmente, como simultaneamente, sendo que para a realização dos ensaios apenas se utilizou o fuelóleo devido ao seu menor custo. Na caldeira designada por 1 realizaram-se ensaios para os caudais de 300, 500, 800, 1000, 1200, 1400 e 1600 kg/h de fuelóleo. A gama de rendimentos térmicos obtida foi entre 88,3 e 91,2%. Na caldeira designada por 3, efetuaram-se ensaios para os caudais de fuelóleo de 300, 500, 700, 900, 1000, 1200, 1400, 1500 e 1800 kg/h e os rendimentos térmicos obtidos foram entre 85,2 e 88,0%. Em ambas as caldeiras e para caudais baixos verificou-se que a quantidade de ar introduzida no processo de combustão era superior à necessária, conduzindo a uma diminuição dos valores de rendimento térmico. Para 500 kg/h de fuelóleo, por exemplo, a quantidade de ar utilizada foi cerca de duas vezes superiores ao valor estequiométrico. Tendo em conta estes factos, foi proposto ao gestor de energia a implementação de uma nova relação de ar/combustível vs caudal de combustível no sistema de controlo das referidas caldeiras. Após alguns testes (excluindo 300 kg/h de fuelóleo devido a questões de operação), considerou-se como caudal mínimo de operação os 500 Kg/h de fuelóleo nas respetivas caldeiras 1 e 3. Verificou-se que os rendimentos térmicos aumentaram, no caso da caldeira 1, para valores entre os 90,1 e 91,3% e, na caldeira 3, para valores entre 89,0 e 90,9%. Por fim, efetuou-se uma breve análise económica com o intuito de se avaliar e quantificar o que a empresa pode poupar com esta medida. O lucro anual pode oscilar entre 14.400 e 62.640€ ou 104.400 e 136.800€, para as caldeiras 1 e 3, respetivamente.
Estudo de uma bomba de calor de expansão direta assistida por energia solar para a preparação de AQS
Resumo:
Este estudo consiste na caracterização da eficiência energética de uma bomba de calor de expansão direta que utiliza a energia solar como fonte térmica. De uma forma geral, teve-se a obrigação de procurar cada vez mais recursos renováveis e neste sentido a bomba de calor de expansão direta tem um papel importante no aquecimento de águas quentes sanitárias (AQS). Como ponto de partida, foi realizada uma descrição detalhada sobre todos os equipamentos da bomba de calor e elaborado um desenho técnico que identifica todos os componentes. No laboratório (casa inteligente) realizaram-se vários ensaios a fim de interpretar com rigor os resultados obtidos do desempenho da bomba de calor (COP) e do fator médio de desempenho sazonal (SPF). No início, realizaram-se ensaios para determinar as perdas estáticas do sistema termodinâmico, de seguida foram elaborados ensaios segundo a norma EN 16147 e por fim, ensaios de acordo com o perfil de utilização de AQS definido. No estudo experimental do COP, obteve-se uma elevada eficiência energética com um valor médio de 4,12. O COP aumenta para valores médios de 5 quando a temperatura de água no termoacumulador desce para 35ºC. Verificou-se que durante o período diurno o COP aumenta aproximadamente de 10% relativamente ao período noturno. A potência elétrica é mais elevada (450W) quando a água no termoacumulador está perto da temperatura desejável (55ºC), originando um esforço maior da bomba de calor. No estudo experimental do SPF, verificou-se que nos ensaios segundo a norma EN16147 os valores obtidos variaram entre 1,39 e 1,50 (Classe “B”). No estudo realizado de acordo com o perfil de utilização de AQS definido pelo utilizador, o SPF é superior em 12% relativamente ao obtido segundo os ensaios realizados de acordo a norma EN16147. Verificou-se que o aumento da temperatura do ar exterior implica um aumento do SPF (cerca de 2% a 5%), enquanto a energia solar não influência nos resultados.
Resumo:
SUMMARYResearch on Paracoccidioides brasiliensis has centered in the yeast cell probably because of the lack of distinctive features in the mycelium. In 1942 and for the first time, lateral conidia were noticed in the fungus' hyphae. Later on, Brazilian, Venezuelan and Argentinean researchers described "aleurias" when the fungus was grown in natural substrates. In 1970 authors became interested in the conidia and were able to obtain them in large numbers and treat them as individual units. Their shape and size were defined and the presence of all the elements of a competent eukaryotic cell were demonstrated. Conidia exhibited thermal dimorphism and, additionally, when given intranasally to BALB/c male mice, they converted into yeasts in the lungs and produce progressive pulmonary lesions with further dissemination to other organs. Studies on the phagocyte-conidia interaction were revealing and showed that these versatile structures allow a better understanding of the host- P. brasiliensisinteractions.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Electrotécnica e de Computadores
Resumo:
A Work Project, presented as part of the requirements for the Award of a Masters Degree in Management from the NOVA – School of Business and Economics