24 resultados para least cost abatement
em Instituto Politécnico do Porto, Portugal
Resumo:
Currently, due to the widespread use of computers and the internet, students are trading libraries for the World Wide Web and laboratories with simulation programs. In most courses, simulators are made available to students and can be used to proof theoretical results or to test a developing hardware/product. Although this is an interesting solution: low cost, easy and fast way to perform some courses work, it has indeed major disadvantages. As everything is currently being done with/in a computer, the students are loosing the “feel” of the real values of the magnitudes. For instance in engineering studies, and mainly in the first years, students need to learn electronics, algorithmic, mathematics and physics. All of these areas can use numerical analysis software, simulation software or spreadsheets and in the majority of the cases data used is either simulated or random numbers, but real data could be used instead. For example, if a course uses numerical analysis software and needs a dataset, the students can learn to manipulate arrays. Also, when using the spreadsheets to build graphics, instead of using a random table, students could use a real dataset based, for instance, in the room temperature and its variation across the day. In this work we present a framework which uses a simple interface allowing it to be used by different courses where the computers are the teaching/learning process in order to give a more realistic feeling to students by using real data. A framework is proposed based on a set of low cost sensors for different physical magnitudes, e.g. temperature, light, wind speed, which are connected to a central server, that the students have access with an Ethernet protocol or are connected directly to the student computer/laptop. These sensors use the communication ports available such as: serial ports, parallel ports, Ethernet or Universal Serial Bus (USB). Since a central server is used, the students are encouraged to use sensor values results in their different courses and consequently in different types of software such as: numerical analysis tools, spreadsheets or simply inside any programming language when a dataset is needed. In order to do this, small pieces of hardware were developed containing at least one sensor using different types of computer communication. As long as the sensors are attached in a server connected to the internet, these tools can also be shared between different schools. This allows sensors that aren't available in a determined school to be used by getting the values from other places that are sharing them. Another remark is that students in the more advanced years and (theoretically) more know how, can use the courses that have some affinities with electronic development to build new sensor pieces and expand the framework further. The final solution provided is very interesting, low cost, simple to develop, allowing flexibility of resources by using the same materials in several courses bringing real world data into the students computer works.
Resumo:
Nos últimos anos verificou-se uma alteração das condições e modo de funcionamento de empresas e instituições, privadas e públicas, muitas delas através da introdução de novas ferramentas de gestão. De entre elas, podemos destacar o outsourcing, que apesar de não ser um fenómeno actual, é ainda em Portugal uma ferramenta recente e pouco explorada, que pode contribuir de forma decisiva para a modernização, flexibilidade e competitividade das empresas. O presente estudo pretende abordar a contratação de serviços externos nos serviços de saúde públicos, também conhecido como outsourcing, mediante uma análise prática da realidade de uma instituição hospitalar com sete serviços em regime de outsourcing, com recolha dos dados durante o triénio 2008-2010. No Serviço de Urgência durante 2010 o principal prestador recebeu mais 104,28% acima do valor referência/hora, no Serviço de Oftalmologia no ano de 2010 o prestador recebeu um valor superior em 24,91%, no Serviço de Limpeza, Higiene e Conforto é pago ao prestador durante o ano de 2010 um valor superior em 13,85%, no Serviço de Vigilância e Segurança o prestador recebeu durante o ano de 2010 um valor superior em 27,5%, caso a instituição hospitalar optasse por contratar, para os serviços atrás referidos, profissionais para o quadro de pessoal. Ainda em relação ao Serviço de Urgência foi pago mais 21,38% acima do valor de referência publicado por Despacho governamental. Em relação aos Serviços de Lavandaria e de Tratamento de Resíduos Sólidos, não foi possível recolher os dados necessários que pudessem levar a uma conclusão válida sobre os custos pagos pela instituição hospitalar. Pode-se concluir que a contratação de prestadores externos, para os serviços de saúde, essenciais e não essenciais, em regime de outsourcing, revela-se na maioria dos casos analisados a opção menos económica, com custos bastantes elevados.
Resumo:
Electricity markets are complex environments, involving a large number of different entities, playing in a dynamic scene to obtain the best advantages and profits. MASCEM is a multi-agent electricity market simulator to model market players and simulate their operation in the market. Market players are entities with specific characteristics and objectives, making their decisions and interacting with other players. MASCEM provides several dynamic strategies for agents’ behavior. This paper presents a method that aims to provide market players with strategic bidding capabilities, allowing them to obtain the higher possible gains out of the market. This method uses a reinforcement learning algorithm to learn from experience how to choose the best from a set of possible bids. These bids are defined accordingly to the cost function that each producer presents.
Resumo:
In this paper is presented a Game Theory based methodology to allocate transmission costs, considering cooperation and competition between producers. As original contribution, it finds the degree of participation on the additional costs according to the demand behavior. A comparative study was carried out between the obtained results using Nucleolus balance and Shapley Value, with other techniques such as Averages Allocation method and the Generalized Generation Distribution Factors method (GGDF). As example, a six nodes network was used for the simulations. The results demonstrate the ability to find adequate solutions on open access environment to the networks.
Resumo:
In this paper we present a new methodology, based in game theory, to obtain the market balancing between Distribution Generation Companies (DGENCO), in liberalized electricity markets. The new contribution of this methodology is the verification of the participation rate of each agent based in Nucléolo Balancing and in Shapley Value. To validate the results we use the Zaragoza Distribution Network with 42 Bus and 5 DGENCO.
Resumo:
Mestrado em Engenharia Electrotécnica e de Computadores
Resumo:
O objectivo desta tese é dimensionar um secador em leito fluidizado para secagem de cereais, nomeadamente, secagem de sementes de trigo. Inicialmente determinaram-se as condições de hidrodinâmica (velocidade de fluidização, TDH, condições mínimas de “slugging”, expansão do leito, dimensionamento do distribuidor e queda de pressão). Com as condições de hidrodinâmica definidas, foi possível estimar as dimensões físicas do secador. Neste ponto, foram realizados estudos relativamente à cinética da secagem e à própria secagem. Foi também estudado o transporte pneumático das sementes. Deste modo, determinaram-se as velocidades necessárias ao transporte pneumático e respectivas quedas de pressão. Por fim, foi realizada uma análise custos para que se soubesse o custo deste sistema de secagem. O estudo da secagem foi feito para uma temperatura de operação de 50ºC, tendo a ressalva que no limite se poderia trabalhar com 60ºC. A velocidade de operação é de 2,43 m/s, a altura do leito fixo é de 0,4 m, a qual sofre uma expansão durante a fluidização, assumindo o valor de 0,79 m. O valor do TDH obtido foi de 1,97 m, que somado à expansão do leito permite obter uma altura total da coluna de 2,76 m. A altura do leito fixo permite retirar o valor do diâmetro que é de 0,52 m. Verifica-se que a altura do leito expandido é inferior à altura mínima de “slugging” (1,20 m), no entanto, a velocidade de operação é superior à velocidade mínima de “slugging” (1,13 m/s). Como só uma das condições mínimas é cumprida, existe a possibilidade da ocorrência de “slugging”. Finalmente, foi necessário dimensionar o distribuidor, que com o diâmetro de orifício de 3 mm, valor inferior ao da partícula (3,48 mm), permite a distruibuição do fluido de secagem na coluna através dos seus 3061 orifícios. O inicio do estudo da secagem centrou-se na determinação do tempo de secagem. Além das duas temperaturas atrás referidas, foram igualmente consideradas duas humidades iniciais para os cereais (21,33% e 18,91%). Temperaturas superiores traduzem-se em tempos de secagem inferiores, paralelamente, teores de humidade inicial inferiores indicam tempos menores. Para a temperatura de 50ºC, os tempos de secagem assumiram os valores de 2,8 horas para a 21,33% de humidade e 2,7 horas para 18,91% de humidade. Foram também tidas em conta três alturas do ano para a captação do ar de secagem, Verão e Inverno representando os extremos, e a Meia- Estação. Para estes três casos, foi possível verificar que a humidade específica do ar não apresenta alterações significativas entre a entrada no secador e a corrente de saída do mesmo equipamento, do mesmo modo que a temperatura de saída pouco difere da de entrada. Este desvio de cerca de 1% para as humidades e para as temperaturas é explicado pela ausência de humidade externa nas sementes e na pouca quantidade de humidade interna. Desta forma, estes desvios de 1% permitem a utilização de uma razão de reciclagem na ordem dos 100% sem que o comportamento da secagem se altere significativamente. O uso de 100% de reciclagem permite uma poupança energética de cerca de 98% no Inverno e na Meia-Estação e de cerca de 93% no Verão. Caso não fosse realizada reciclagem, seria necessário fornecer à corrente de ar cerca de 18,81 kW para elevar a sua temperatura de 20ºC para 50ºC (Meia-Estação), cerca de 24,67 kW para elevar a sua temperatura de 10ºC para 50ºC (Inverno) e na ordem dos 8,90 kW para elevar a sua temperatura dos 35ºC para 50ºC (Verão). No caso do transporte pneumático, existem duas linhas, uma horizontal e uma vertical, logo foi necessário estimar o valor da velocidade das partículas para estes dois casos. Na linha vertical, a velocidade da partícula é cerca de 25,03 m/s e cerca de 35,95 m/s na linha horizontal. O menor valor para a linha vertical prende-se com o facto de nesta zona ter que se vencer a força gravítica. Em ambos os circuitos a velocidade do fluido é cerca de 47,17 m/s. No interior da coluna, a velocidade do fluido tem o valor de 10,90 m/s e a velocidade das partículas é de 1,04 m/s. A queda de pressão total no sistema é cerca de 2408 Pa. A análise de custos ao sistema de secagem indicou que este sistema irá acarretar um custo total (fabrico mais transporte) de cerca de 153035€. Este sistema necessita de electricidade para funcionar, e esta irá acarretar um custo anual de cerca de 7951,4€. Embora este sistema de secagem apresente a possibilidade de se realizar uma razão de reciclagem na ordem dos 100% e também seja possível adaptar o mesmo para diferentes tipos de cereais, e até outros tipos de materiais, desde que possam ser fluidizados, o seu custo impede que a realização deste investimento não seja atractiva, especialmente tendo em consideração que se trata de uma instalação à escala piloto com uma capacidade de 45 kgs.
Resumo:
Este trabalho teve como propósito fazer uma avaliação do desempenho energético e da qualidade do ar no interior das instalações de uma Piscina Municipal Coberta, localizada na zona norte de Portugal, sendo estabelecidos os seguintes objetivos: caracterização geral da piscina, no que respeita aos seus diferentes espaços e equipamentos, cálculo dos consumos térmicos e elétricos bem como o registo das concentrações de elementos poluentes para controlo da qualidade do ar no interior da piscina, tendo como base a legislação atualmente em vigor. A caracterização geral da piscina permitiu verificar algumas inconformidades como a temperatura da água nos tanques de natação que tem valores superiores aos recomendados e a sala de primeiros socorros que não possui acesso direto ao exterior. Acrescente-se que o pavimento nos chuveiros da casa de banho feminina e os valores de pH para água do tanque grande e pequeno não estão sempre dentro da gama de recomendação. O caudal da renovação de ar está a ser operado manualmente e quando está a funcionar a 50% da sua capacidade máxima, que acontece numa parte do dia, apenas consegue renovar 77,5% do caudal recomendado pelo RSECE. Para se obter o valor recomendado é necessário ter pelo menos 7 horas com o caudal a 100% da capacidade máxima. A avaria na UTA2 originou que 40% dos registos diários da humidade relativa interior estivessem fora da gama de valores recomendados e que esta é fortemente dependente da humidade no exterior e pode ser agravada quando as portas dos envidraçados da nave são abertas. Analisando ainda a quantidade de água removida na desumidificação do ar com a água evaporada em condições de Outono-Inverno ou Primavera-Verão, este estudo permitiu concluir que todas as combinações demonstraram a necessidade de desumidificação salvo a combinação Outono-Inverno e UTA2 a funcionar a 100% da sua capacidade máxima. Os isolamentos das tubagens na sala das caldeiras foram observados e comparados com as soluções recomendadas pelas empresas especialistas e verificou-se que alguns estão mal colocados com parcial ou total degradação, promovendo perdas térmicas. No caso das perdas calorificas por evaporação, estas representaram cerca de 67,78% das perdas totais. Como tal, estudou-se a aplicação de uma cobertura sobre o plano de água durante o período de inatividade da piscina (8 horas) e verificou-se que o resultado seria uma poupança de 654,8 kWh/dia, na ausência de evaporação da água, mais 88,00 kWh/dia do período da UTA2 a funcionar a 50% da sua capacidade, perfazendo um total de 742,8 kWh/dia. A aplicação da cobertura permite obter um VAL de valor positivo, uma TIR de 22,77% e sendo este valor superior ao WACC (Weight Average Cost of Capital), o projeto torna-se viável com um Pay-Back de 3,17 anos. Caracterizou-se também o consumo total diário em eletricidade, e verificou-se que as unidades de climatização, as bombas de circulação de água, a iluminação, e outros equipamentos representam, respetivamente, cerca de 67,81, 25,26, 2,68 e 3,91% da energia elétrica total consumida. Por fim, a análise à qualidade do ar no interior da nave em Maio e Setembro identificou que as concentrações de ozono apresentavam valores no limite do aceitável em Maio e superiores ao valor de emissão em Setembro. Os compostos orgânicos voláteis também apresentavam valores em Maio 4,98 vezes superior e em Setembro 6,87 vezes superior aos valores máximos exigidos pelo D.L. nº 79/2006. Houve ainda altas concentrações de radão registadas na casa dos filtros, em Maio com um valor 11,49 vezes superior, no entanto esse valor desceu em Setembro para 1,08 vezes, mesmo assim superior ao exigido pelo D.L. nº 79/2006.
Resumo:
A presente dissertação descreve o desenvolvimento e a caracterização de sensores ópticos com base em membranas de poli(cloreto de vinilo), PVC, para determinação de Norfloxacina em amostras do sector da aquacultura. Estes sensores basearam-se na reacção colorimétrica entre um metal imobilizado em PVC e a Norfloxacina. O metal foi escolhido com base em ensaios prévios de reacção colorimétrica entre a Norfloxacina e várias espécies metálicas, nomeadamente, Fe(III), Al(III), Pb(II), Aluminon, Mo(II), Mn(II), Ni(II), Cu(II), Co(II), Sn(II) e V(V). A reacção mais intensa foi obtida com o Fe(III). Neste sentido, numa primeira fase foram desenvolvidos sensores baseados em Fe(III). O efeito de alguns parâmetros experimentais na resposta desses sensores foi avaliado de modo univariado. Incluem-se aqui o efeito do pH, avaliado entre 2,00 e 6,00, e o da concentração de Fe(III), variada entre cerca de 1,00x10-5 M e 2,00x10-4 M. Os melhores valores foram obtidos a pH 3, para o qual se verificou um comportamento linear entre cerca de 1,00x10-5 M e 1,70x10-4 M de Fe(III). Utilizando as condições seleccionadas anteriormente, procedeu-se à caracterização do complexo sob ponto de vista químico. Os valores obtidos apontaram para a necessidade de um excesso de Fe(III) de, pelo menos, 10 vezes, no sentido de garantir a máxima extensão de complexação. O complexo referido apresentou, nestas condições, um comportamento linear ao longo do intervalo de concentrações de cerca de 7,00x10-5 M a 7,00x10-4 M em NOR. O complexo formado foi estável ao longo de 90 minutos. As condições óptimas para análise desse complexo numa superfície sólida foram obtidas após avaliação do efeito da quantidade de Fe(III) e do tipo e quantidade de solvente mediador (o-nitrofenil octil éter, di-n-octilftalato, dibutilftalato, bis(etilhexil)sebacato, bis(etilhexil)ftalato). O bis(etilhexil)sebacato foi o solvente mediador escolhido e a relação de quantidade entre o PVC e o solvente mediador foi igual a 1:2. O procedimento de preparação do sensor sólido e subsequente optimização foi aplicado a outras espécies metálicas, para além do Fe(III), tais como, Cu(II), Mn(II) e aluminon. A conjugação de todos estes metais permitiu desenvolver um array de sensores para despistagem de Norfloxacina em águas de aquacultura. Algumas membranas sensoras foram aplicadas com sucesso no controlo de Norfloxacina em amostras de águas ambientais dopadas. Os resultados obtidos com membranas de Fe(III) e Cu(II) foram exactos, tendo-se registado valores de concentração próximos dos reais. O método proposto permitiu, por isso, a despistagem rápida e eficaz da presença de um antibiótico em águas ambientais, permitindo ainda o seu doseamento a um baixo custo. Numa perspectiva de rotina, e tendo em vista a despistagem deste antibiótico, este método revelou-se mais rápido e mais barato do que os demais métodos descritos na literatura para este efeito.
Resumo:
In this paper we consider a differentiated Stackelberg model, when the leader firm engages in an R&D process that gives an endogenous cost-reducing innovation. The aim is to study the licensing of the cost-reduction by a two-part tariff. By using comparative static analysis, we conclude that the degree of the differentiation of the goods plays an important role in the results. We also do a direct comparison between our model and Cournot duopoly model.
Resumo:
The higher education system in Europe is currently under stress and the debates over its reform and future are gaining momentum. Now that, for most countries, we are in a time for change, in the overall society and the whole education system, the legal and political dimensions have gained prominence, which has not been followed by a more integrative approach of the problem of order, its reform and the issue of regulation, beyond the typical static and classical cost-benefit analyses. The two classical approaches for studying (and for designing the policy measures of) the problem of the reform of the higher education system - the cost-benefit analysis and the legal scholarship description - have to be integrated. This is the argument of our paper that the very integration of economic and legal approaches, what Warren Samuels called the legal-economic nexus, is meaningful and necessary, especially if we want to address the problem of order (as formulated by Joseph Spengler) and the overall regulation of the system. On the one hand, and without neglecting the interest and insights gained from the cost-benefit analysis, or other approaches of value for money assessment, we will focus our study on the legal, social and political aspects of the regulation of the higher education system and its reform in Portugal. On the other hand, the economic and financial problems have to be taken into account, but in a more inclusive way with regard to the indirect and other socio-economic costs not contemplated in traditional or standard assessments of policies for the tertiary education sector. In the first section of the paper, we will discuss the theoretical and conceptual underpinning of our analysis, focusing on the evolutionary approach, the role of critical institutions, the legal-economic nexus and the problem of order. All these elements are related to the institutional tradition, from Veblen and Commons to Spengler and Samuels. The second section states the problem of regulation in the higher education system and the issue of policy formulation for tackling the problem. The current situation is clearly one of crisis with the expansion of the cohorts of young students coming to an end and the recurrent scandals in private institutions. In the last decade, after a protracted period of extension or expansion of the system, i. e., the continuous growth of students, universities and other institutions are competing harder to gain students and have seen their financial situation at risk. It seems that we are entering a period of radical uncertainty, higher competition and a new configuration that is slowly building up is the growth in intensity, which means upgrading the quality of the higher learning and getting more involvement in vocational training and life-long learning. With this change, and along with other deep ones in the Portuguese society and economy, the current regulation has shown signs of maladjustment. The third section consists of our conclusions on the current issue of regulation and policy challenge. First, we underline the importance of an evolutionary approach to a process of change that is essentially dynamic. A special attention will be given to the issues related to an evolutionary construe of policy analysis and formulation. Second, the integration of law and economics, through the notion of legal economic nexus, allows us to better define the issues of regulation and the concrete problems that the universities are facing. One aspect is the instability of the political measures regarding the public administration and on which the higher education system depends financially, legally and institutionally, to say the least. A corollary is the lack of clear strategy in the policy reforms. Third, our research criticizes several studies, such as the one made by the OECD in late 2006 for the Ministry of Science, Technology and Higher Education, for being too static and neglecting fundamental aspects of regulation such as the logic of actors, groups and organizations who are major players in the system. Finally, simply changing the legal rules will not necessary per se change the behaviors that the authorities want to change. By this, we mean that it is not only remiss of the policy maker to ignore some of the critical issues of regulation, namely the continuous non-respect by academic management and administrative bodies of universities of the legal rules that were once promulgated. Changing the rules does not change the problem, especially without the necessary debates form the different relevant quarters that make up the higher education system. The issues of social interaction remain as intact. Our treatment of the matter will be organized in the following way. In the first section, the theoretical principles are developed in order to be able to study more adequately the higher education transformation with a modest evolutionary theory and a legal and economic nexus of the interactions of the system and the policy challenges. After describing, in the second section, the recent evolution and current working of the higher education in Portugal, we will analyze the legal framework and the current regulatory practices and problems in light of the theoretical framework adopted. We will end with some conclusions on the current problems of regulation and the policy measures that are discusses in recent years.
Resumo:
This paper presents a novel approach to WLAN propagation models for use in indoor localization. The major goal of this work is to eliminate the need for in situ data collection to generate the Fingerprinting map, instead, it is generated by using analytical propagation models such as: COST Multi-Wall, COST 231 average wall and Motley- Keenan. As Location Estimation Algorithms kNN (K-Nearest Neighbour) and WkNN (Weighted K-Nearest Neighbour) were used to determine the accuracy of the proposed technique. This work is based on analytical and measurement tools to determine which path loss propagation models are better for location estimation applications, based on Receive Signal Strength Indicator (RSSI).This study presents different proposals for choosing the most appropriate values for the models parameters, like obstacles attenuation and coefficients. Some adjustments to these models, particularly to Motley-Keenan, considering the thickness of walls, are proposed. The best found solution is based on the adjusted Motley-Keenan and COST models that allows to obtain the propagation loss estimation for several environments.Results obtained from two testing scenarios showed the reliability of the adjustments, providing smaller errors in the measured values values in comparison with the predicted values.
Resumo:
In this paper we propose the use of the least-squares based methods for obtaining digital rational approximations (IIR filters) to fractional-order integrators and differentiators of type sα, α∈R. Adoption of the Padé, Prony and Shanks techniques is suggested. These techniques are usually applied in the signal modeling of deterministic signals. These methods yield suboptimal solutions to the problem which only requires finding the solution of a set of linear equations. The results reveal that the least-squares approach gives similar or superior approximations in comparison with other widely used methods. Their effectiveness is illustrated, both in the time and frequency domains, as well in the fractional differintegration of some standard time domain functions.
Resumo:
In this paper, we present two Partial Least Squares Regression (PLSR) models for compressive and flexural strength responses of a concrete composite material reinforced with pultrusion wastes. The main objective is to characterize this cost-effective waste management solution for glass fiber reinforced polymer (GFRP) pultrusion wastes and end-of-life products that will lead, thereby, to a more sustainable composite materials industry. The experiments took into account formulations with the incorporation of three different weight contents of GFRP waste materials into polyester based mortars, as sand aggregate and filler replacements, two waste particle size grades and the incorporation of silane adhesion promoter into the polyester resin matrix in order to improve binder aggregates interfaces. The regression models were achieved for these data and two latent variables were identified as suitable, with a 95% confidence level. This technological option, for improving the quality of GFRP filled polymer mortars, is viable thus opening a door to selective recycling of GFRP waste and its use in the production of concrete-polymer based products. However, further and complementary studies will be necessary to confirm the technical and economic viability of the process.
Resumo:
Lunacloud is a cloud service provider with offices in Portugal, Spain, France and UK that focus on delivering reliable, elastic and low cost cloud Infrastructure as a Service (IaaS) solutions. The company currently relies on a proprietary IaaS platform - the Parallels Automation for Cloud Infrastructure (PACI) - and wishes to expand and integrate other IaaS solutions seamlessly, namely open source solutions. This is the challenge addressed in this thesis. This proposal, which was fostered by Eurocloud Portugal Association, contributes to the promotion of interoperability and standardisation in Cloud Computing. The goal is to investigate, propose and develop an interoperable open source solution with standard interfaces for the integrated management of IaaS Cloud Computing resources based on new as well as existing abstraction libraries or frameworks. The solution should provide bothWeb and application programming interfaces. The research conducted consisted of two surveys covering existing open source IaaS platforms and PACI (features and API) and open source IaaS abstraction solutions. The first study was focussed on the characteristics of most popular open source IaaS platforms, namely OpenNebula, OpenStack, CloudStack and Eucalyptus, as well as PACI and included a thorough inventory of the provided Application Programming Interfaces (API), i.e., offered operations, followed by a comparison of these platforms in order to establish their similarities and dissimilarities. The second study on existing open source interoperability solutions included the analysis of existing abstraction libraries and frameworks and their comparison. The approach proposed and adopted, which was supported on the conclusions of the carried surveys, reuses an existing open source abstraction solution – the Apache Deltacloud framework. Deltacloud relies on the development of software driver modules to interface with different IaaS platforms, officially provides and supports drivers to sixteen IaaS platform, including OpenNebula and OpenStack, and allows the development of new provider drivers. The latter functionality was used to develop a new Deltacloud driver for PACI. Furthermore, Deltacloud provides a Web dashboard and REpresentational State Transfer (REST) API interfaces. To evaluate the adopted solution, a test bed integrating OpenNebula, Open- Stack and PACI nodes was assembled and deployed. The tests conducted involved time elapsed and data payload measurements via the Deltacloud framework as well as via the pre-existing IaaS platform API. The Deltacloud framework behaved as expected, i.e., introduced additional delays, but no substantial overheads. Both the Web and the REST interfaces were tested and showed identical measurements. The developed interoperable solution for the seamless integration and provision of IaaS resources from PACI, OpenNebula and OpenStack IaaS platforms fulfils the specified requirements, i.e., provides Lunacloud with the ability to expand the range of adopted IaaS platforms and offers a Web dashboard and REST API for the integrated management. The contributions of this work include the surveys and comparisons made, the selection of the abstraction framework and, last, but not the least, the PACI driver developed.