40 resultados para operating cost
em Instituto Politécnico do Porto, Portugal
Resumo:
Enquadrado num contexto cada vez mais marcado pela necessidade imperiosa de adoção e desenvolvimento de práticas ambientais e energeticamente sustentáveis, este trabalho visa contribuir para a caracterização e otimização do consumo de energia na produção de biodiesel. O biodiesel pode ser encarado como uma boa resposta aos graves problemas que os combustíveis fósseis estão a provocar nas sociedades modernas, pois é uma fonte de energia biodegradável, não-tóxica e sintetizada a partir de várias matérias-primas. Porém, o elevado custo de produção, como consequência do elevado preço das matérias-primas, constitui o maior problema para a sua implementação e comercialização a grande escala. A produção de biodiesel é, em sua quase totalidade, conduzida por via de reação de transesterificação, usando óleo vegetal e álcool como matérias-primas. O objetivo geral deste trabalho é otimizar energeticamente um processo de produção de biodiesel, via catálise homogênea alcalina (BCHA). Para alcançar esse objetivo, um fluxograma típico de produção foi construído e analisado, tanto do ponto de vista energético como econômico. Posteriormente oportunidades de otimização do processo foram identificadas, no sentido de reduzir o consumo de utilidades, impacto ambiental e aumentar a rentabilidade econômica. A construção do processo, a caracterização da alimentação, os critérios de operacionalidade, a obtenção de resultados e demais fatores foram efetuados com auxílio de um software de simulação Aspen Plus versão 20.0 criado pela Aspen Technology products. Os resultados do trabalho revelaram que o processo BCHA produz uma corrente com 99,9 % em biodiesel, obedecendo às normas internacionais em vigor. Na parte energética, o processo BCHA base necessitou de 21.405,1 kW em utilidades quentes e 14.886,3 kW em utilidades frias. A integração energética do processo BCHA, segundo a metodologia pinch, permitiu uma redução das necessidades quentes para 10.752,3 kW (redução de 50 %) e frias para 4.233,5 kW (redução de 72 %). A temperatura no ponto de estrangulamento (PE) foi de 157,7 ºC nas correntes quentes e 147,7 ºC nas correntes frias. Em termos econômicos, o custo total é reduzido em 35% com a integração energética proposta. Essa diminuição, deve-se sobretudo à redução do custo operacional, onde as necessidades de vapor de muita alta pressão (VMAP), vapor de alta pressão (VAP) e água de resfriamento (AR) apresentaram quebras de 2 %, 92 % e 71 %, respectivamente. Como conclusão final, salienta-se que a integração do processo BCHA estudado é energética e economicamente viável.
Resumo:
Power system organization has gone through huge changes in the recent years. Significant increase in distributed generation (DG) and operation in the scope of liberalized markets are two relevant driving forces for these changes. More recently, the smart grid (SG) concept gained increased importance, and is being seen as a paradigm able to support power system requirements for the future. This paper proposes a computational architecture to support day-ahead Virtual Power Player (VPP) bid formation in the smart grid context. This architecture includes a forecasting module, a resource optimization and Locational Marginal Price (LMP) computation module, and a bid formation module. Due to the involved problems characteristics, the implementation of this architecture requires the use of Artificial Intelligence (AI) techniques. Artificial Neural Networks (ANN) are used for resource and load forecasting and Evolutionary Particle Swarm Optimization (EPSO) is used for energy resource scheduling. The paper presents a case study that considers a 33 bus distribution network that includes 67 distributed generators, 32 loads and 9 storage units.
Resumo:
Electricity markets are complex environments, involving a large number of different entities, playing in a dynamic scene to obtain the best advantages and profits. MASCEM is a multi-agent electricity market simulator to model market players and simulate their operation in the market. Market players are entities with specific characteristics and objectives, making their decisions and interacting with other players. MASCEM provides several dynamic strategies for agents’ behavior. This paper presents a method that aims to provide market players with strategic bidding capabilities, allowing them to obtain the higher possible gains out of the market. This method uses a reinforcement learning algorithm to learn from experience how to choose the best from a set of possible bids. These bids are defined accordingly to the cost function that each producer presents.
Resumo:
In recent decades, all over the world, competition in the electric power sector has deeply changed the way this sector’s agents play their roles. In most countries, electric process deregulation was conducted in stages, beginning with the clients of higher voltage levels and with larger electricity consumption, and later extended to all electrical consumers. The sector liberalization and the operation of competitive electricity markets were expected to lower prices and improve quality of service, leading to greater consumer satisfaction. Transmission and distribution remain noncompetitive business areas, due to the large infrastructure investments required. However, the industry has yet to clearly establish the best business model for transmission in a competitive environment. After generation, the electricity needs to be delivered to the electrical system nodes where demand requires it, taking into consideration transmission constraints and electrical losses. If the amount of power flowing through a certain line is close to or surpasses the safety limits, then cheap but distant generation might have to be replaced by more expensive closer generation to reduce the exceeded power flows. In a congested area, the optimal price of electricity rises to the marginal cost of the local generation or to the level needed to ration demand to the amount of available electricity. Even without congestion, some power will be lost in the transmission system through heat dissipation, so prices reflect that it is more expensive to supply electricity at the far end of a heavily loaded line than close to an electric power generation. Locational marginal pricing (LMP), resulting from bidding competition, represents electrical and economical values at nodes or in areas that may provide economical indicator signals to the market agents. This article proposes a data-mining-based methodology that helps characterize zonal prices in real power transmission networks. To test our methodology, we used an LMP database from the California Independent System Operator for 2009 to identify economical zones. (CAISO is a nonprofit public benefit corporation charged with operating the majority of California’s high-voltage wholesale power grid.) To group the buses into typical classes that represent a set of buses with the approximate LMP value, we used two-step and k-means clustering algorithms. By analyzing the various LMP components, our goal was to extract knowledge to support the ISO in investment and network-expansion planning.
Resumo:
In this paper is presented a Game Theory based methodology to allocate transmission costs, considering cooperation and competition between producers. As original contribution, it finds the degree of participation on the additional costs according to the demand behavior. A comparative study was carried out between the obtained results using Nucleolus balance and Shapley Value, with other techniques such as Averages Allocation method and the Generalized Generation Distribution Factors method (GGDF). As example, a six nodes network was used for the simulations. The results demonstrate the ability to find adequate solutions on open access environment to the networks.
Resumo:
In this paper we present a new methodology, based in game theory, to obtain the market balancing between Distribution Generation Companies (DGENCO), in liberalized electricity markets. The new contribution of this methodology is the verification of the participation rate of each agent based in Nucléolo Balancing and in Shapley Value. To validate the results we use the Zaragoza Distribution Network with 42 Bus and 5 DGENCO.
Resumo:
Mestrado em Engenharia Química
Resumo:
Projecto apresentado ao Instituto Politécnico do Porto para obtenção do Grau de Mestre em Logística Orientada por Prof. Doutor Gouveia
Resumo:
O objectivo desta tese é dimensionar um secador em leito fluidizado para secagem de cereais, nomeadamente, secagem de sementes de trigo. Inicialmente determinaram-se as condições de hidrodinâmica (velocidade de fluidização, TDH, condições mínimas de “slugging”, expansão do leito, dimensionamento do distribuidor e queda de pressão). Com as condições de hidrodinâmica definidas, foi possível estimar as dimensões físicas do secador. Neste ponto, foram realizados estudos relativamente à cinética da secagem e à própria secagem. Foi também estudado o transporte pneumático das sementes. Deste modo, determinaram-se as velocidades necessárias ao transporte pneumático e respectivas quedas de pressão. Por fim, foi realizada uma análise custos para que se soubesse o custo deste sistema de secagem. O estudo da secagem foi feito para uma temperatura de operação de 50ºC, tendo a ressalva que no limite se poderia trabalhar com 60ºC. A velocidade de operação é de 2,43 m/s, a altura do leito fixo é de 0,4 m, a qual sofre uma expansão durante a fluidização, assumindo o valor de 0,79 m. O valor do TDH obtido foi de 1,97 m, que somado à expansão do leito permite obter uma altura total da coluna de 2,76 m. A altura do leito fixo permite retirar o valor do diâmetro que é de 0,52 m. Verifica-se que a altura do leito expandido é inferior à altura mínima de “slugging” (1,20 m), no entanto, a velocidade de operação é superior à velocidade mínima de “slugging” (1,13 m/s). Como só uma das condições mínimas é cumprida, existe a possibilidade da ocorrência de “slugging”. Finalmente, foi necessário dimensionar o distribuidor, que com o diâmetro de orifício de 3 mm, valor inferior ao da partícula (3,48 mm), permite a distruibuição do fluido de secagem na coluna através dos seus 3061 orifícios. O inicio do estudo da secagem centrou-se na determinação do tempo de secagem. Além das duas temperaturas atrás referidas, foram igualmente consideradas duas humidades iniciais para os cereais (21,33% e 18,91%). Temperaturas superiores traduzem-se em tempos de secagem inferiores, paralelamente, teores de humidade inicial inferiores indicam tempos menores. Para a temperatura de 50ºC, os tempos de secagem assumiram os valores de 2,8 horas para a 21,33% de humidade e 2,7 horas para 18,91% de humidade. Foram também tidas em conta três alturas do ano para a captação do ar de secagem, Verão e Inverno representando os extremos, e a Meia- Estação. Para estes três casos, foi possível verificar que a humidade específica do ar não apresenta alterações significativas entre a entrada no secador e a corrente de saída do mesmo equipamento, do mesmo modo que a temperatura de saída pouco difere da de entrada. Este desvio de cerca de 1% para as humidades e para as temperaturas é explicado pela ausência de humidade externa nas sementes e na pouca quantidade de humidade interna. Desta forma, estes desvios de 1% permitem a utilização de uma razão de reciclagem na ordem dos 100% sem que o comportamento da secagem se altere significativamente. O uso de 100% de reciclagem permite uma poupança energética de cerca de 98% no Inverno e na Meia-Estação e de cerca de 93% no Verão. Caso não fosse realizada reciclagem, seria necessário fornecer à corrente de ar cerca de 18,81 kW para elevar a sua temperatura de 20ºC para 50ºC (Meia-Estação), cerca de 24,67 kW para elevar a sua temperatura de 10ºC para 50ºC (Inverno) e na ordem dos 8,90 kW para elevar a sua temperatura dos 35ºC para 50ºC (Verão). No caso do transporte pneumático, existem duas linhas, uma horizontal e uma vertical, logo foi necessário estimar o valor da velocidade das partículas para estes dois casos. Na linha vertical, a velocidade da partícula é cerca de 25,03 m/s e cerca de 35,95 m/s na linha horizontal. O menor valor para a linha vertical prende-se com o facto de nesta zona ter que se vencer a força gravítica. Em ambos os circuitos a velocidade do fluido é cerca de 47,17 m/s. No interior da coluna, a velocidade do fluido tem o valor de 10,90 m/s e a velocidade das partículas é de 1,04 m/s. A queda de pressão total no sistema é cerca de 2408 Pa. A análise de custos ao sistema de secagem indicou que este sistema irá acarretar um custo total (fabrico mais transporte) de cerca de 153035€. Este sistema necessita de electricidade para funcionar, e esta irá acarretar um custo anual de cerca de 7951,4€. Embora este sistema de secagem apresente a possibilidade de se realizar uma razão de reciclagem na ordem dos 100% e também seja possível adaptar o mesmo para diferentes tipos de cereais, e até outros tipos de materiais, desde que possam ser fluidizados, o seu custo impede que a realização deste investimento não seja atractiva, especialmente tendo em consideração que se trata de uma instalação à escala piloto com uma capacidade de 45 kgs.
Resumo:
O presente trabalho experimental teve como objectivos estudar a tratabilidade dum efluente lácteo utilizando a técnica de coagulação/floculação e avaliar a possibilidade de utilização do carvão activado granulado (CAG) Aquasorb 2000 como adsorvente para a remoção de compostos orgânicos presentes nos efluentes lácteos pré–tratados por coagulação/floculação, funcionando como um tratamento de polimento. No estudo da tratabilidade do efluente por coagulação/floculação investigou-se a influência de determinadas variáveis como o tipo e dose de coagulante e pH, a fim de encontrar as melhores condições operatórias. A utilização da referida técnica visou a redução do valor de concentração de alguns parâmetros: carência química de oxigénio (CQO); fósforo total e turvação, tendo sido utilizados efluentes desta indústria recolhidos em diferentes datas e após tratamento biológico, designados por A, B, C e D apresentando características diferentes. Sendo que o efluente A apresentava valores de CQO, fósforo total e turvação de 500 mg O2/L;32 mg P/L e 40 NTU respectivamente, o efluente B 1400 mg O2/L; 120 mg P/L e 80 NTU respectivamente, o efluente C 12300 mg O2/L; 87 mg P/L e 350 NTU respectivamente e o efluente D 340 mg O2/L; 33 mg P/L e 42 NTU respectivamente. Os coagulantes estudados foram hidróxido de cálcio (HC), sulfato de alumínio (SA) e tricloreto de ferro (TF). Verificou-se que o coagulante com maior eficácia nos efluentes estudados foi o TF. As maiores remoções de CQO, fósforo total e turvação, 89%, 99,9% e 99%, respectivamente, foram obtidas para o efluente C, com uma dosagem de TF de 4 g/L e com um pH entre 6 e 7. Entre os efluentes estudados este era o que apresentava valores iniciais mais elevados para qualquer um destes parâmetros. As melhores percentagens de remoção obtidas com o HC, para a CQO, fósforo total e turvação foram de 59%, 99% e 91%, respectivamente, com uma dosagem de HC de 1 g/L e com um pH entre 10 e 11,5 foram conseguidas no tratamento do efluente D, com o qual se alcançaram também as melhores remoções de CQO, fósforo total e turvação de 65%, 99% e 87%, respectivamente, quando se utilizou o coagulante SA, com uma dosagem de 2 g/L e com um pH entre 7 e 7,5. Relativamente ao volume de lamas produzido neste processo pela utilização dos diferentes coagulantes no tratamento dos efluentes referidos concluiu-se que o coagulante que gera menor volume de lamas é o HC, sendo o SA aquele que origina um maior volume. Submeteu-se posteriormente o efluente D, pré-tratado por coagulação/floculação, a um processo de adsorção em batch utilizando o CAG Aquasorb 2000, onde se conseguiu uma remoção de CQO de 48%, alcançando para este parâmetro o valor de 63 mg O2/L, nas condições operatórias que correspondem a uma massa de CAG de 12,5 g/L e um tempo de contacto de 3 horas. Quanto aos custos associados com os coagulantes, o que menores custos apresenta é o HC (150 €/ton), seguido pelo TF (250 €/ton) e por ultimo o SA (340 €/ton). Sendo que o efluente quando tratado com TF e SA é necessário uma correcção do pH do meio para que estes coagulantes actuem eficazmente, em que essa correcção de pH é realizada com hidróxido de sódio (540 €/ton). Realizaram-se ainda estudos de equilíbrio de adsorção com o carvão activado referido e o azul-de-metileno usando diferentes concentrações deste (50 mg/L; 100 mg/L e 200 mg/L) e diferentes massas de CAG (0,1g; 0,2g; 0,3g; 0,4g e 0,5g). A temperatura a que se realizaram estes ensaios foi de 28,7ºC e o volume de azul-de-metileno foi de 200 mL. Verificou-se que os melhores resultados obtidos foram para uma concentração de adsorvato de 100 mg/L. Ajustaram-se os modelos de Langmuir e Freundlich às isotérmicas obtidas tendo correlações mais elevadas para a concentração de 100 mg/L de corante (azul de metileno), sendo o modelo de Freundlich aquele que melhor se ajustou apresentando uma correlação quadrática de 0,9744 e os seguintes parâmetros Kf = 6,59 e n = 5,33, enquanto que o de Langmuir apresentou uma correlação quadrática de 0,9583 e os seguintes parâmetros qmáx = 83,3 mg/g de adsorvente e K = 20 L/mg de adsorvato.. Verificou-se que a capacidade de adsorção promovida pelo CAG, em relação ao azul-demetileno, obtida experimentalmente, 83,3 mg/g, é muito inferior à capacidade de adsorção teoricamente prevista pela ficha técnica deste carvão, 280 mg/g a uma temperatura de 25ºC, o que pode indiciar que o carvão utilizado não estaria nas melhores condições.
Resumo:
In this paper we consider a differentiated Stackelberg model, when the leader firm engages in an R&D process that gives an endogenous cost-reducing innovation. The aim is to study the licensing of the cost-reduction by a two-part tariff. By using comparative static analysis, we conclude that the degree of the differentiation of the goods plays an important role in the results. We also do a direct comparison between our model and Cournot duopoly model.
Resumo:
A deteção e seguimento de pessoas tem uma grande variedade de aplicações em visão computacional. Embora tenha sido alvo de anos de investigação, continua a ser um tópico em aberto, e ainda hoje, um grande desafio a obtenção de uma abordagem que inclua simultaneamente exibilidade e precisão. O trabalho apresentado nesta dissertação desenvolve um caso de estudo sobre deteção e seguimento automático de faces humanas, em ambiente de sala de reuniões, concretizado num sistema flexível de baixo custo. O sistema proposto é baseado no sistema operativo GNU's Not Unix (GNU) linux, e é dividido em quatro etapas, a aquisição de vídeo, a deteção da face, o tracking e reorientação da posição da câmara. A aquisição consiste na captura de frames de vídeo das três câmaras Internet Protocol (IP) Sony SNC-RZ25P, instaladas na sala, através de uma rede Local Area Network (LAN) também ele já existente. Esta etapa fornece os frames de vídeo para processamento à detecção e tracking. A deteção usa o algoritmo proposto por Viola e Jones, para a identificação de objetos, baseando-se nas suas principais características, que permite efetuar a deteção de qualquer tipo de objeto (neste caso faces humanas) de uma forma genérica e em tempo real. As saídas da deteção, quando é identificado com sucesso uma face, são as coordenadas do posicionamento da face, no frame de vídeo. As coordenadas da face detetada são usadas pelo algoritmo de tracking, para a partir desse ponto seguir a face pelos frames de vídeo subsequentes. A etapa de tracking implementa o algoritmo Continuously Adaptive Mean-SHIFT (Camshift) que baseia o seu funcionamento na pesquisa num mapa de densidade de probabilidade, do seu valor máximo, através de iterações sucessivas. O retorno do algoritmo são as coordenadas da posição e orientação da face. Estas coordenadas permitem orientar o posicionamento da câmara de forma que a face esteja sempre o mais próximo possível do centro do campo de visão da câmara. Os resultados obtidos mostraram que o sistema de tracking proposto é capaz de reconhecer e seguir faces em movimento em sequências de frames de vídeo, mostrando adequabilidade para aplicação de monotorização em tempo real.
Resumo:
No âmbito da unidade curricular Dissertação/Projeto/Estágio do 2ºano do Mestrado em Engenharia mecânica – Ramo Gestão Industrial do Instituto Superior de Engenharia do Porto, o presente trabalho de dissertação foi enquadrado num projeto industrial de melhoria com Instituto Kaizen, empresa de consultoria operacional. O projeto foi desenvolvido numa empresa de produção de componentes em ferro nodular destinados à indústria automóvel do mercado europeu, a Sakthi Portugal,SA. A realização deste projeto teve como objetivo a implementação do sistema de planeamento em Pull (produção puxada) na logística interna da Sakthi Portugal,SA recorrendo à metodologia Kaizen. Esta metodologia consiste na aplicação de ferramentas de TFM - Total Flow Management, integradas no Kaizen Management System. Neste projeto recorreu-se especialmente a um dos pilares que o constituem, o pilar do “Fluxo da Logística Interna”. Neste pilar encontram-se as várias metodologias utilizadas na otimização do fluxo de material e informação na logística interna. Estas metodologias foram aplicadas, com o objetivo do sistema produtivo operar de acordo com a necessidade do cliente, obtendo deste modo a minimização dos custo e o aumento da produtividade e qualidade. Em resultado da aplicação da metodologia seguida, foi possível atingir-se os objetivos definidos inicialmente e em alguns casos foi possível superar esses objetivos. Em função da abordagem integrada que foi seguida, conseguiu-se uma diminuição do “lead time” do processo de fabrico, redução dos produtos em curso de fabrico, libertação de espaço e redução de inventários. Estas melhorias resultaram numa movimentação interna na fábrica mais facilitada e num aumento global da produtividade. Como consequência positiva dos efeitos deste trabalho, pode-se apontar o facto de que a Sakthi Portugal SA aumentou a sua competitividade por tornar-se numa empresa mais dinâmica, mais adaptada ao mercado e com níveis de satisfação do cliente muito superiores.
Resumo:
Embedded systems are increasingly complex and dynamic, imposing progressively higher developing time and costs. Tuning a particular system for deployment is thus becoming more demanding. Furthermore when considering systems which have to adapt themselves to evolving requirements and changing service requests. In this perspective, run-time monitoring of the system behaviour becomes an important requirement, allowing to dynamically capturing the actual scheduling progress and resource utilization. For this to succeed, operating systems need to expose their internal behaviour and state, making it available to external applications, and a runtime monitoring mechanism must be available. However, such mechanism can impose a burden in the system itself if not wisely used. In this paper we explore this problem and propose a framework, which is intended to provide this run-time mechanism whilst achieving code separation, run-time efficiency and flexibility for the final developer.
Resumo:
Many-core platforms based on Network-on-Chip (NoC [Benini and De Micheli 2002]) present an emerging technology in the real-time embedded domain. Although the idea to group the applications previously executed on separated single-core devices, and accommodate them on an individual many-core chip offers various options for power savings, cost reductions and contributes to the overall system flexibility, its implementation is a non-trivial task. In this paper we address the issue of application mapping onto a NoCbased many-core platform when considering fundamentals and trends of current many-core operating systems, specifically, we elaborate on a limited migrative application model encompassing a message-passing paradigm as a communication primitive. As the main contribution, we formulate the problem of real-time application mapping, and propose a three-stage process to efficiently solve it. Through analysis it is assured that derived solutions guarantee the fulfilment of posed time constraints regarding worst-case communication latencies, and at the same time provide an environment to perform load balancing for e.g. thermal, energy, fault tolerance or performance reasons.We also propose several constraints regarding the topological structure of the application mapping, as well as the inter- and intra-application communication patterns, which efficiently solve the issues of pessimism and/or intractability when performing the analysis.