124 resultados para Least-cost-variance methodology
Resumo:
O contexto, o tempo é de mudança. Ainda que o não fosse, falar de gestão de recursos humanos, falar de pessoas, é falar em mudança (ou mudanças). A economia mundial é que dita o presente e o futuro das organizações, privadas ou públicas, com ou sem fins lucrativos, pequenas, médias e grandes. Quando, em 2011, foi chumbado o quarto projeto do Programa de Estabilidade e Crescimento, vivia-se em Portugal um período crítico, ao qual não era alheia a conjuntura internacional de recessão económica. No domínio da Administração Pública, procurava-se redesenhar as organizações, imprimir-lhes uma gestão mais privatística, de otimização de recursos e controlo de custos. Hoje, sabe-se que aquela rejeição do programa político governamental teria outras consequências, as que atualmente os portugueses vêm sentindo. É um período de mudanças radicais, sem precedentes. Como lideram ou como administram os responsáveis pelas organizações, no contexto atual? Quais as qualidades de liderança que imperam em situações de crise e de austeridade? Como reagem líderes e liderados em períodos de recessão ou adversidade? E, sobretudo, como falham uns e são bem-sucedidos outros? Desde logo, há que reconhecer a importância e valorizar o capital humano: atrair, reter e desenvolver. Neste trabalho, procuramos responder aos crescentes interesse e preocupação em redesenhar, reformar e melhorar a gestão na administração pública. Daí o interesse pela motivação e a sua relação com o estilo de liderança adotado nas organizações deste setor, fator determinante para o comprometimento, a eficácia e a produtividade no trabalho. Mais concretamente, o objetivo deste estudo é compreender a relação entre o sistema de gestão que predomina nas entidades responsáveis pela recolha e gestão de resíduos do concelho da Maia e a motivação dos seus colaboradores, assim como a satisfação dos mesmos com a sua chefia. A metodologia de investigação utilizada orienta-se para a abordagem quantitativa, recorrendo-se a técnicas e instrumentos de natureza quantitativa, tais como o questionário de escala de resposta tipo Likert, por considerarmos ser a mais ajustada às pretensões desta investigação.
Resumo:
Com as variações e instabilidade dos preços do petróleo, assim como as políticas europeias para adoção de estratégias para o desenvolvimento sustentável, têm levado à procura de forma crescente de novas tecnologias e fontes de energia alternativas. Neste contexto, tem-se assistido a políticas energéticas que estimulam o aumento da produção e a utilização do gás natural, visto que é considerado uma fonte de energia limpa. O crescimento do mercado do gás natural implica um reforço significativo das redes de transporte deste combustível, quer ao nível do armazenamento e fornecimento, quer ao nível dos gasodutos e da sua gestão. O investimento em gasodutos de transporte implica grandes investimentos, que poderiam não ser remunerados da forma esperada, sendo um dos motivos para que exista em Portugal cinco distritos se veem privados deste tipo de infraestruturas. O transporte de gás natural acarreta custos elevados para os consumidores, tanto maiores quanto maior forem as quantidades de gás transacionadas e quanto maior for o percurso pelo gás natural percorrido. Assim assume especial importância a realização de um despacho de gás natural: quais as cargas que cada unidade de fornecimento de gás irá alimentar, qual a quantidade de gás natural que cada UFGs deve injetar na rede, qual o menor percurso possível para o fazer, o tipo de transporte que será utilizado? Estas questões são abordadas na presente dissertação, por forma a minimizar a função custo de transporte, diminuindo assim as perdas na rede de alta pressão e os custos de transporte que serão suportados pelos consumidores. A rede de testes adotada foi a rede nacional de transporte, constituída por 18 nós de consumos, e os tipos de transporte considerados, foram o transporte por gasoduto físico e o transporte através de gasoduto virtual – rotas de transporte rodoviário de gás natural liquefeito. Foram criados diversos cenários, baseados em períodos de inverno e verão, os diferentes cenários abrangeram de forma distinta as variáveis de forma a analisar os impactos que estas variáveis teriam no custo relativo ao transporte de gás natural. Para dar suporte ao modelo de despacho económico, foi desenvolvida uma aplicação computacional – Despacho_GN com o objetivo de despachar as quantidades de gás natural que cada UFG deveria injetar na rede, assim como apresentar os custos acumulados relativos ao transporte. Com o apoio desta aplicação foram testados diversos cenários, sendo apresentados os respectivos resultados. A metodologia elaborada para a criação de um despacho através da aplicação “Despacho_GN” demonstrou ser eficiente na obtenção das soluções, mostrando ser suficientemente rápida para realizar as simulações em poucos segundos. A dissertação proporciona uma contribuição para a exploração de problemas relacionados com o despacho de gás natural, e sugere perspectivas futuras de investigação e desenvolvimento.
Resumo:
O Despacho económico de um sistema eléctrico de energia com a coordenação hidrotérmica tem como objectivo alcançar a operação óptima do sistema em um determinado período de tempo, ao menor custo possível, e com alto grau de fiabilidade. O problema é muito complexo, pois depende do grau de dificuldade em se prever os caudais dos afluentes, e da capacidade das albufeiras das centrais hídricas. De um modo geral, a produção térmica é determinada de modo a proporcionar o uso mais racional possível da água, dentro do contexto de incertezas quanto às afluências futuras, de modo a, por um lado manter o sistemas o mais económico possível, e por outro, evitar o desperdício energético implícito em descarregamentos de volumes de água turbináveis. Neste trabalho é proposta uma metodologia baseada em programação linear para a solução da coordenação hidrotérmica de curto prazo, e que permite obter custos-sombra de água em centrais hídricas com armazenamento. Esta metodologia foi posteriormente implementado num programa computacional em Microsoft Excel 2010 para a solução numa primeira fase, da rede de 24 barramentos do IEEE, e numa segunda fase, para a solução da Rede Nacional de Transporte referente ao ano de 2010. Para efeitos de análise e validação de dados, os dados provenientes do programa, são depois comparados aos dados dos relatórios da REN. Por último, os dados provenientes do programa em Excel são colocados e analisados no programa PowerWorld Simulator 8.0.
Resumo:
Nos últimos anos a indústria de semicondutores, nomeadamente a produção de memórias, tem sofrido uma grande evolução. A necessidade de baixar custos de produção, assim como de produzir sistemas mais complexos e com maior capacidade, levou à criação da tecnologia WLP (Wafer Level Packaging). Esta tecnologia permite a produção de sistemas mais pequenos, simplificar o fluxo do processo e providenciar uma redução significativa do custo final do produto. A WLP é uma tecnologia de encapsulamento de circuitos integrados quando ainda fazem parte de wafers (bolachas de silício), em contraste com o método tradicional em que os sistemas são individualizados previamente antes de serem encapsulados. Com o desenvolvimento desta tecnologia, surgiu a necessidade de melhor compreender o comportamento mecânico do mold compound (MC - polímero encapsulante) mais especificamente do warpage (empeno) de wafers moldadas. O warpage é uma característica deste produto e deve-se à diferença do coeficiente de expansão térmica entre o silício e o mold compound. Este problema é observável no produto através do arqueamento das wafers moldadas. O warpage de wafers moldadas tem grande impacto na manufatura. Dependendo da quantidade e orientação do warpage, o transporte, manipulação, bem como, a processamento das wafers podem tornar-se complicados ou mesmo impossíveis, o que se traduz numa redução de volume de produção e diminuição da qualidade do produto. Esta dissertação foi desenvolvida na Nanium S.A., empresa portuguesa líder mundial na tecnologia de WLP em wafers de 300mm e aborda a utilização da metodologia Taguchi, no estudo da variabilidade do processo de debond para o produto X. A escolha do processo e produto baseou-se numa análise estatística da variação e do impacto do warpage ao longo doprocesso produtivo. A metodologia Taguchi é uma metodologia de controlo de qualidade e permite uma aproximação sistemática num dado processo, combinando gráficos de controlo, controlo do processo/produto, e desenho do processo para alcançar um processo robusto. Os resultados deste método e a sua correta implementação permitem obter poupanças significativas nos processos com um impacto financeiro significativo. A realização deste projeto permitiu estudar e quantificar o warpage ao longo da linha de produção e minorar o impacto desta característica no processo de debond. Este projecto permitiu ainda a discussão e o alinhamento entre as diferentes áreas de produção no que toca ao controlo e a melhoria de processos. Conseguiu–se demonstrar que o método Taguchi é um método eficiente no que toca ao estudo da variabilidade de um processo e otimização de parâmetros. A sua aplicação ao processo de debond permitiu melhorar ou a fiabilidade do processo em termos de garantia da qualidade do produto, como ao nível do aumento de produção.
Resumo:
O relatório inserido na Unidade Curricular de DIPRE do Mestrado em Engenharia Civil do ISEP e desenvolvido no âmbito do estágio curricular realizado na COGEDIR, Gestão de Projetos SA, tem como objetivo caraterizar o mercado nacional da construção civil, os procedimentos da orçamentação, analisando os seus processos no âmbito dos concursos públicos em Portugal. Deste modo, o relatório inicia-se com o fundamento da importância da orçamentação na construção civil e a caraterização do mercado da construção no momento atual de crise e as dificuldades dos empreiteiros em obter empreitadas. Em seguida foi realizado um levantamento ao estudo da arte sobre os temas de custos e orçamentos, e ainda uma abordagem as ferramentas de orçamentação. Depois de analisada toda a metodologia de orçamentação, são caraterizados os processos das empresas do grupo para o ato de orçamentação. Nessa linha foi ainda realizado um estudo de vários procedimentos de concurso já finalizados para servir como base de sustentação para uma mudança estratégica a implementar nas empresas. Neste estudo ficou bem patente a tendência dos valores das propostas apresentadas pelos vários concorrentes, nos diferentes procedimentos. Com base nestes elementos é feita uma avaliação simplificada dos valores que os empreiteiros possivelmente apresentam para os diferentes tipos de concursos. Dessa análise foi possível definir a estratégia a implementar pelas empresas. Definida a estratégia a seguir pelas empresas, são alvo de estudo de caso dois procedimentos de realidades distintas. Um relativo ao processo de concurso de uma empreitada de construção e o outro a um concurso de prestação de serviços. Neste capítulo, são abordadas situações reais de processos de concurso, desde a consulta do procedimento, estudo das condicionantes, composição de custos, elaboração da documentação e entrega das propostas.
Resumo:
A tese de mestrado teve como objetivo o estudo e análise do funcionamento das centrais de cogeração e térmica da fábrica da Unicer em Leça do Balio, com o intuito de melhorar a sua eficiência, propondo alterações processuais. O trabalho realizado consistiu no reconhecimento das instalações, seguido da formulação e resolução dos balanços de energia globais. Com o acompanhamento diário do funcionamento foi possível propor melhorias sem custos que se revelaram muito benéficas, registando-se um aumento nas recuperações térmicas e por consequência no Rendimento Elétrico Equivalente (R.E.E.), na eficiência da instalação da cogeração e da central térmica. Na cogeração registou-se um aumento de 36,2% na potência recuperada em água quente, aproximadamente 600 kW, sendo já superior à prevista pelo projeto. Na caldeira recuperativa registou-se um ligeiro aumento de 4,0% na potência recuperada. Deste modo o rendimento térmico da central aumentou 6,4%, atingindo os 40,8% e superando os 40,4% projetados. O rendimento global final foi de 83,1% o que representa um aumento de 6,3%. O R.E.E. em Maio de 2014 foi de 76,3%, superior ao valor em Junho de 2013 em 8,7%. Tendo como referência o valor alvo de 70,5% para o R.E.E. apontado no início do estágio, nos últimos 8 meses o seu valor tem sido sempre superior e em crescimento. Existe ainda a possibilidade de aproveitar a energia térmica de baixa temperatura que está a ser dissipada numa torre de arrefecimento, no mínimo 40 kW, num investimento com um período de retorno de investimento máximo de 8,1 meses. Na central térmica registou-se um aumento do rendimento para a mesma quantidade de energia produzida na central, pois esta é a principal variável do processo. Em 2014 a produção de energia apresentou um valor inferior a 2013, 6,9%, e a eficiência registou um acréscimo de 2,0%. A incorporação de biogás na alimentação de combustível à caldeira bifuel não pareceu comprometer significativamente a eficiência da central térmica, pelo que a sua utilização é benéfica. Com o aumento das recuperações térmicas na central de cogeração foram estimadas poupanças de gás natural equivalentes a 3,3 GWh, o que significa 120.680€ economizados nos últimos 11 meses do trabalho. É esperado uma poupança de 18.000€ mensais com a melhoria do funcionamento obtida nas duas centrais.
Resumo:
As excelentes propriedades mecânicas, associadas ao seu baixo peso, fazem com que os materiais compósitos sejam atualmente dos mais interessantes da nossa sociedade tecnológica. A crescente utilização destes materiais e a excelência dos resultados daí provenientes faz com que estes materiais sejam utilizados em estruturas complexas de responsabilidade, pelo que a sua maquinagem se torna necessária de forma a possibilitar a ligação entre peças. O processo de furação é o mais frequente. O processo de maquinagem de compósitos terá como base os métodos convencionais utilizados nos materiais metálicos. O processo deverá, no entanto, ser convenientemente adaptado, quer a nível de parâmetros, quer a nível de ferramentas a utilizar. As características dos materiais compósitos são bastante particulares pelo que, quando são sujeitos a maquinagem poderão apresentar defeitos tais como delaminação, fissuras intralaminares, arrancamento de fibras ou dano por sobreaquecimento. Para a detecção destes danos, por vezes a inspeção visual não é suficiente, sendo necessário recorrer a processos específicos de análise de danos. Existem já, alguns estudos, cujo âmbito foi a obtenção de furos de qualidade em compósitos, com minimização do dano, não se podendo comparar ainda com a informação existente, no que se refere à maquinagem de materiais metálicos ou ligas metálicas. Desta forma, existe ainda um longo caminho a percorrer, de forma a que o grau de confiança na utilização destes materiais se aproxime aos materiais metálicos. Este trabalho experimental desenvolvido nesta tese assentou essencialmente na furação de placas laminadas e posterior análise dos danos provocados por esta operação. Foi dada especial atenção à medição da delaminação causada pela furação e à resistência mecânica do material após ser maquinado. Os materiais utilizados, para desenvolver este trabalho experimental, foram placas compósitas de carbono/epóxido com duas orientações de fibras diferentes: unidireccionais e em “cross-ply”. Não se conseguiu muita informação, junto do fornecedor, das suas características pelo que se levaram a cabo ensaios que permitiram determinar o seu módulo de elasticidade. Relativamente á sua resistência â tração, como já foi referido, a grande resistência oferecida pelo material, associada às limitações da máquina de ensaios não permitiu chegar a valores conclusivos. Foram usadas três geometrias de ferramenta diferentes: helicoidal, Brad e Step. Os materiais utilizados nas ferramentas, foram o aço rápido (HSS) e o carboneto de tungsténio para as brocas helicoidais de 118º de ângulo de ponta e apenas o carboneto de tungsténio para as brocas Brad e Step. As ferramentas em diamante não foram consideradas neste trabalho, pois, embora sejam reconhecidas as suas boas características para a maquinagem de compósitos, o seu elevado custo não justifica a sua escolha, pelo menos num trabalho académico, como é o caso. As vantagens e desvantagens de cada geometria ou material utilizado foram avaliadas, tanto no que diz respeito à delaminação como á resistência mecânica dos provetes ensaiados. Para a determinação dos valores de delaminação, foi usada a técnica de Raio X. Algum conhecimento já existente relativamente a este processo permitiu definir alguns parâmetros (por exemplo: tempo de exposição das placas ao liquido contrastante), que tornaram acessível o procedimento de obtenção de imagens das placas furadas. Importando estas imagens para um software de desenho (no caso – AutoCad), foi possível medir as áreas delaminadas e chegar a valores para o fator de delaminação de cada furo efetuado. Terminado este processo, todas as placas foram sujeitas a ensaios de esmagamento, de forma a avaliar a forma como os parâmetros de maquinagem afectaram a resistência mecânica do material. De forma resumida, são objetivos deste trabalho: - Caracterizar as condições de corte em materiais compósitos, mais especificamente em fibras de carbono reforçado com matriz epóxida (PRFC); - Caracterização dos danos típicos provocados pela furação destes materiais; - Desenvolvimento de análise não destrutiva (RX) para avaliação dos danos provocados pela furação; - Conhecer modelos existentes com base na mecânica da fratura linear elástica (LEFM); - Definição de conjunto de parâmetros ideais de maquinagem com o fim de minimizar os danos resultantes da mesma, tendo em conta os resultados provenientes dos ensaios de força, da análise não destrutiva e da comparação com modelos de danos existentes e conhecidos.
Resumo:
Durante as últimas décadas observou-se o crescimento da importância das avaliações fornecidas pelas agências de rating, sendo este um fator decisivo na tomada de decisão dos investidores. Também os emitentes de dívida são largamente afetados pelas alterações das classificações atribuídas por estas agências. Esta investigação pretende, por um lado, compreender se estas agências têm poder para conseguirem influenciar a evolução da dívida pública e qual o seu papel no mercado financeiro. Por outro, pretende compreender quais os fatores determinantes da dívida pública portuguesa, bem como a realização de uma análise por percentis com o objetivo de lhe atribuir um rating. Para a análise dos fatores que poderão influenciar a dívida pública, a metodologia utilizada é uma regressão linear múltipla estimada através do Método dos Mínimos Quadrados (Ordinary Least Squares – OLS), em que num cenário inicial era composta por onze variáveis independentes, sendo a dívida pública a variável dependente, para um período compreendido entre 1996 e 2013. Foram realizados vários testes ao modelo inicial, com o objetivo de encontrar um modelo que fosse o mais explicativo possível. Conseguimos ainda identificar uma relação inversa entre o rating atribuído por estas agências e a evolução da dívida pública, no sentido em que para períodos em que o rating desce, o crescimento da dívida é mais acentuado. Não nos foi, no entanto, possível atribuir um rating à dívida pública através de uma análise de percentis.
Resumo:
A monitorização da qualidade da energia eléctrica tem revelado importância crescente na gestão e caracterização da rede eléctrica. Estudos revelam que os custos directos relacionados com perda de qualidade da energia eléctrica podem representar cerca de 1,5 % do PIB nacional. Para além destes, tem-se adicionalmente os custos indirectos o que se traduz num problema que necessita de minimização. No contexto da minimização dos danos causados pela degradação de energia, são utilizados equipamentos com capacidade de caracterizar a energia eléctrica através da sua monitorização. A utilização destes equipamentos têm subjacente normas de qualidade de energia, que impõem requisitos mínimos de modo a enquadrar e classificar eventos ocorridos na rede eléctrica. Deste modo obtêm-se dados coerentes provenientes de diferentes equipamentos. A monitorização dos parâmetros associados à energia eléctrica é frequentemente realizada através da instalação temporária dos esquipamentos na rede eléctrica, o que resulta numa observação de distúrbios a posteriori da sua ocasião. Esta metodologia não permite detectar o evento eléctrico original mas, quando muito, outros que se espera que sejam semelhantes ao ocorrido. Repare-se, no entanto, que existe um conjunto alargado de eventos que não são repetitivos, constituindo assim uma limitação aquela metodologia. Este trabalho descreve uma alternativa à metodologia de utilização tradicional dos equipamentos. A solução consiste em realizar um analisador de energia que faça parte integrante da instalação e permita a monitorização contínua da rede eléctrica. Este equipamento deve ter um custo suficientemente baixo para que seja justificável nesta utilização alternativa. O analisador de qualidade de energia a desenvolver tem por base o circuito integrado ADE7880, que permite obter um conjunto de parâmetros da qualidade de energia eléctrica de acordo com as normas de energia IEC 61000-4-30 e IEC 61000-4-7. Este analisador permite a recolha contínua de dados específicos da rede eléctrica, e que posteriormente serão armazenados e colocados à disposição do utilizador. Deste modo os dados recolhidos serão apresentados ao utilizador para consulta, de maneira a verificar, de modo continuo a eventual ocorrência das anomalias na rede. Os valores adquiridos podem ainda ser reutilizados vantajosamente para muitas outras finalidades tais como efectuar estudos sobre a optimização energética. O trabalho presentemente desenvolvido decorre de uma utilização alternativa do dispositivo WeSense Energy1 desenvolvido pela equipa da Evoleo Technologies. A presente vertente permite obter parâmetros determinados pelo ADE7880 tais como por exemplo harmónicos, eventos transitórios de tensão e corrente e o desfasamento entre fases, realizando assim uma nova versão do dispositivo, o WeSense Energy2. Adicionalmente este trabalho inclui a visualização remota dos através de uma página web.
Resumo:
Num mercado globalizado, a procura contínua de vantagens competitivas é um fator crucial para o sucesso das organizações. A melhoria contínua dos processos é uma abordagem usual, uma vez que os resultados destas melhorias vão se traduzir diretamente na qualidade dos produtos. Neste contexto, a metodologia Failure Mode Effect Analysis (FMEA) é muito utilizada, especialmente pelas suas características proactivas, que permitem a identificação e a prevenção de erros do processo. Assim, quanto mais eficaz for a aplicação desta ferramenta, mais benefícios terá a organização. Assim, quando é utilizado com eficácia, o FMEA de Processo, além de ser um método poderoso na análise do processo, permite a melhoria contínua e a redução dos custos [1] . Este trabalho de dissertação teve como objetivo avaliar a eficácia da utilização da ferramenta do FMEA de processo numa organização certificada segundo a norma ISO/TS16949. A metodologia proposta passa pela análise de dados reais, ou seja, comparar as falhas verificadas no mercado com as falhas que tinham sido identificadas no FMEA. Assim, ao analisar o nível de falhas identificadas e não identificadas durante o FMEA e a projeção dessas falhas no mercado, consegue-se determinar se o FMEA foi mais ou menos eficaz, e ainda, identificar fatores que condicionam a melhor utilização da mesma. Este estudo, está organizado em três fases, a primeira apresenta a metodologia proposta , com a definição de um fluxograma do processo de avaliação e as métricas usadas, a segunda fase a aplicação do modelo proposto a dois casos de estudo, e uma última fase, que consiste na análise comparativa, individual e global, que visa, além de comparar esultados, identificar pontos fracos durante a execução do FMEA. Os resultados do caso de estudo indicam que a ferramenta do FMEA tem sido usada com eficácia, pois consegue-se identificar uma quantidade significativa de falhas potenciais e evitá-las. No entanto, existem ainda falhas que não foram identificadas no FMEA e que apareceram no cliente, e ainda, algumas falhas que foram identificadas e apareceram no cliente. As falhas traduzem-se em má qualidade e custos para o negócio, pelo que são propostas ações de melhoria. Pode-se concluir que uma boa utilização do FMEA pode ser um fator importante para a qualidade do serviço ao cliente, e ainda, com impacto dos custos.
Resumo:
All over the world, the liberalization of electricity markets, which follows different paradigms, has created new challenges for those involved in this sector. In order to respond to these challenges, electric power systems suffered a significant restructuring in its mode of operation and planning. This restructuring resulted in a considerable increase of the electric sector competitiveness. Particularly, the Ancillary Services (AS) market has been target of constant renovations in its operation mode as it is a targeted market for the trading of services, which have as main objective to ensure the operation of electric power systems with appropriate levels of stability, safety, quality, equity and competitiveness. In this way, with the increasing penetration of distributed energy resources including distributed generation, demand response, storage units and electric vehicles, it is essential to develop new smarter and hierarchical methods of operation of electric power systems. As these resources are mostly connected to the distribution network, it is important to consider the introduction of this kind of resources in AS delivery in order to achieve greater reliability and cost efficiency of electrical power systems operation. The main contribution of this work is the design and development of mechanisms and methodologies of AS market and for energy and AS joint market, considering different management entities of transmission and distribution networks. Several models developed in this work consider the most common AS in the liberalized market environment: Regulation Down; Regulation Up; Spinning Reserve and Non-Spinning Reserve. The presented models consider different rules and ways of operation, such as the division of market by network areas, which allows the congestion management of interconnections between areas; or the ancillary service cascading process, which allows the replacement of AS of superior quality by lower quality of AS, ensuring a better economic performance of the market. A major contribution of this work is the development an innovative methodology of market clearing process to be used in the energy and AS joint market, able to ensure viable and feasible solutions in markets, where there are technical constraints in the transmission network involving its division into areas or regions. The proposed method is based on the determination of Bialek topological factors and considers the contribution of the dispatch for all services of increase of generation (energy, Regulation Up, Spinning and Non-Spinning reserves) in network congestion. The use of Bialek factors in each iteration of the proposed methodology allows limiting the bids in the market while ensuring that the solution is feasible in any context of system operation. Another important contribution of this work is the model of the contribution of distributed energy resources in the ancillary services. In this way, a Virtual Power Player (VPP) is considered in order to aggregate, manage and interact with distributed energy resources. The VPP manages all the agents aggregated, being able to supply AS to the system operator, with the main purpose of participation in electricity market. In order to ensure their participation in the AS, the VPP should have a set of contracts with the agents that include a set of diversified and adapted rules to each kind of distributed resource. All methodologies developed and implemented in this work have been integrated into the MASCEM simulator, which is a simulator based on a multi-agent system that allows to study complex operation of electricity markets. In this way, the developed methodologies allow the simulator to cover more operation contexts of the present and future of the electricity market. In this way, this dissertation offers a huge contribution to the AS market simulation, based on models and mechanisms currently used in several real markets, as well as the introduction of innovative methodologies of market clearing process on the energy and AS joint market. This dissertation presents five case studies; each one consists of multiple scenarios. The first case study illustrates the application of AS market simulation considering several bids of market players. The energy and ancillary services joint market simulation is exposed in the second case study. In the third case study it is developed a comparison between the simulation of the joint market methodology, in which the player bids to the ancillary services is considered by network areas and a reference methodology. The fourth case study presents the simulation of joint market methodology based on Bialek topological distribution factors applied to transmission network with 7 buses managed by a TSO. The last case study presents a joint market model simulation which considers the aggregation of small players to a VPP, as well as complex contracts related to these entities. The case study comprises a distribution network with 33 buses managed by VPP, which comprises several kinds of distributed resources, such as photovoltaic, CHP, fuel cells, wind turbines, biomass, small hydro, municipal solid waste, demand response, and storage units.
Resumo:
Enquadrado num contexto cada vez mais marcado pela necessidade imperiosa de adoção e desenvolvimento de práticas ambientais e energeticamente sustentáveis, este trabalho visa contribuir para a caracterização e otimização do consumo de energia na produção de biodiesel. O biodiesel pode ser encarado como uma boa resposta aos graves problemas que os combustíveis fósseis estão a provocar nas sociedades modernas, pois é uma fonte de energia biodegradável, não-tóxica e sintetizada a partir de várias matérias-primas. Porém, o elevado custo de produção, como consequência do elevado preço das matérias-primas, constitui o maior problema para a sua implementação e comercialização a grande escala. A produção de biodiesel é, em sua quase totalidade, conduzida por via de reação de transesterificação, usando óleo vegetal e álcool como matérias-primas. O objetivo geral deste trabalho é otimizar energeticamente um processo de produção de biodiesel, via catálise homogênea alcalina (BCHA). Para alcançar esse objetivo, um fluxograma típico de produção foi construído e analisado, tanto do ponto de vista energético como econômico. Posteriormente oportunidades de otimização do processo foram identificadas, no sentido de reduzir o consumo de utilidades, impacto ambiental e aumentar a rentabilidade econômica. A construção do processo, a caracterização da alimentação, os critérios de operacionalidade, a obtenção de resultados e demais fatores foram efetuados com auxílio de um software de simulação Aspen Plus versão 20.0 criado pela Aspen Technology products. Os resultados do trabalho revelaram que o processo BCHA produz uma corrente com 99,9 % em biodiesel, obedecendo às normas internacionais em vigor. Na parte energética, o processo BCHA base necessitou de 21.405,1 kW em utilidades quentes e 14.886,3 kW em utilidades frias. A integração energética do processo BCHA, segundo a metodologia pinch, permitiu uma redução das necessidades quentes para 10.752,3 kW (redução de 50 %) e frias para 4.233,5 kW (redução de 72 %). A temperatura no ponto de estrangulamento (PE) foi de 157,7 ºC nas correntes quentes e 147,7 ºC nas correntes frias. Em termos econômicos, o custo total é reduzido em 35% com a integração energética proposta. Essa diminuição, deve-se sobretudo à redução do custo operacional, onde as necessidades de vapor de muita alta pressão (VMAP), vapor de alta pressão (VAP) e água de resfriamento (AR) apresentaram quebras de 2 %, 92 % e 71 %, respectivamente. Como conclusão final, salienta-se que a integração do processo BCHA estudado é energética e economicamente viável.
Resumo:
Trabalho de Projeto apresentado ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Contabilidade e Finanças, sob orientação de Amélia Cristina Ferreira da Silva
Resumo:
Sulfadimethoxine (SDM) is one of the drugs, often used in the aquaculture sector to prevent the spread of disease in freshwater fish aquaculture. Its spread through the soil and surface water can contribute to an increase in bacterial resistance. It is therefore important to control this product in the environment. This work proposes a simple and low-cost potentiometric device to monitor the levels of SDM in aquaculture waters, thus avoiding its unnecessary release throughout the environment. The device combines a micropipette tip with a PVC membrane selective to SDM, prepared from an appropriate cocktail, and an inner reference solution. The membrane includes 1% of a porphyrin derivative acting as ionophore and a small amount of a lipophilic cationic additive (corresponding to 0.2% in molar ratio). The composition of the inner solution was optimized with regard to the kind and/or concentration of primary ion, chelating agent and/or a specific interfering charged species, in different concentration ranges. Electrodes constructed with inner reference solutions of 1 × 10−8 mol/L SDM and 1 × 10−4 mol/L chromate ion showed the best analytical features. Near-Nernstian response was obtained with slopes of −54.1 mV/decade, an extraordinary detection limit of 7.5 ng/mL (2.4 × 10−8 mol/L) when compared with other electrodes of the same type. The reproducibility, stability and response time are good and even better than those obtained by liquid contact ISEs. Recovery values of 98.9% were obtained from the analysis of aquaculture water samples.
Resumo:
20th International Conference on Reliable Software Technologies - Ada-Europe 2015 (Ada-Europe 2015), 22 to 26, Jun, 2015, Madrid, Spain.