928 resultados para cost-aware process design
Resumo:
A presente tese surgiu da cooperação entre a empresa Semog Racing e o Instituto Superior de Engenharia do Porto, no âmbito da unidade curricular de DPEST, englobado no 2º ano do Mestrado de Engenharia Mecânica, ramo de Construções Mecânicas. Esta dissertação tem como objetivo principal, o projeto de um novo centro de roda para substituir o existente num veículo de competição da Semog Racing. Este centro deverá ser dimensionado para suportar o peso do veículo e os esforços transmitidos à roda. Pretende-se igualmente que o novo modelo apresente um design apelativo e um baixo custo de produção para poder vir ser a comercializado. Na primeira fase, será estudado o centro de roda original fornecido pela Semog Racing. Este estudo engloba a modelação do componente através do software SolidWorks® e uma fase de simulações para diferentes condições de carregamento. O estudo será complementado com a realização de ensaios experimentais para validação do modelo numérico. A segunda fase é dedicada ao desenvolvimento do novo modelo de centro de roda, focando as características mecânicas e o design. Este tem como base o estudo numérico realizado para a roda original, tendo sempre como objetivo final garantir que o novo centro de roda cumpra todos os requisitos. O caminho seguido no processo de otimização é suportado em simulações numéricas pelo método dos elementos finitos, o qual permite aferir quais os pontos críticos a corrigir. No final, será apresentado um novo modelo de centro de roda capaz de suportar as cargas previstas de serviço, que apresente um baixo custo de fabrico e design apelativo.
Resumo:
Para garantir que um equipamento opere com segurança e fiabilidade durante o seu ciclo de vida, desde a sua instalação ao desmantelamento, devem ser realizadas inspeções e/ou monitorizações que, dependendo dos dados recolhidos, podem implicar avaliações Fitness- For-Service (FFS) que definirão a necessidade de reparação ou alteração do equipamento ou das condições processuais. A combinação de inspeção ou monitorização com os melhores procedimentos e técnicas de avaliação atuais fazem sobressair insuficiências dos procedimentos mais antigos. Usando métodos mais avançados de avaliação, validados e suportados através de uma vasta experiência de campo, pode-se agora avaliar defeitos nos ativos (equipamentos) e determinar a adequação ao serviço com uma análise FFS. As análises FFS tornaram-se cada vez mais aceites em toda a indústria ao longo dos últimos anos. A norma API 579 - 1/ASME FFS-1: 2007 fornece diretrizes para avaliar os tipos de danos que afetam os equipamentos processuais e a norma API RP 571: 2011 descreve os mecanismos de degradação que afetam os equipamentos nas petroquímicas e refinarias, que incluem os danos por corrosão, desalinhamentos, deformações plásticas, laminações, fissuras, entre outros. Este trabalho consiste na análise de Integridade Estrutural de uma Flare Industrial que surgiu da necessidade real de análise do equipamento no âmbito da atividade profissional do candidato. O estudo realizado a nível profissional é de grande abrangência, incluindo a inspeção do equipamento, identificação da falha ou dano, recolha e registo de dados, definição de estratégia de atuação e seleção de técnicas de avaliação da condição para posterior alteração, reparação ou desmantelamento. Na presente dissertação de mestrado em Engenharia Mecânica, Ramo Construções Mecânicas, pretende-se efetuar o estudo aprofundado de uma das etapas de projeto, nomeadamente estudar a causa, avaliar a falha e implicações estruturais ou processuais devido à degradação interior do riser de uma flare, com base numa análise FFS, assumindo a operabilidade em segurança e garantindo resolutas condições de funcionamento. A presente análise FFS tem como finalidade validar ou não a integridade atual (avaliação técnica quantitativa) de modo a conhecer se o item em questão é seguro e confiável para continuar a operar em condições específicas durante um período de tempo determinado, tendo em consideração as condições verificadas no ato de inspeção e especificações de projeto, segundo os itens de verificação de segurança estabelecidos na norma EN 1990:2002/A1:2005/AC:2010 e com base na norma API 579-1/ASME FFS-1: 2007. No âmbito do presente trabalho foram realizadas as seguintes tarefas: - Identificar e analisar os mecanismos de degradação com base na norma API RP 571: 2011, face às condições processuais e geométricas que o equipamento em análise está sujeito de modo a perceber a evolução da degradação estrutural e quais as implicações na sua longevidade. - Avaliar e propor soluções de reparação e ou alterações processuais e ou geométricas do equipamento em análise de modo a permitir a continuidade em funcionamento sem afetar as condições de segurança e por conseguinte minimizar ou evitar o elevado custo económico associado a um novo equipamento e tempo de paragem processual. - Assumir limites estruturais face às condições processuais e ações externas ou adjacentes. - Garantir a segurança e qualidade da vida humana ou meio que o rodeia, do equipamento, das instalações, das infraestruturas envolventes e evitar o colapso económico, quer por motivos processuais, quer indeminizações ou agravamento do prémio do seguro. Verificou-se que os resultados serão a base para as alterações inerentes, tais como reforço estrutural, alteração da geometria do defletor, ajuste no tensionamento dos cabos e controlo da espessura mínima, de modo a alargar o período de vida útil da flare com segurança.
Resumo:
All over the world, the liberalization of electricity markets, which follows different paradigms, has created new challenges for those involved in this sector. In order to respond to these challenges, electric power systems suffered a significant restructuring in its mode of operation and planning. This restructuring resulted in a considerable increase of the electric sector competitiveness. Particularly, the Ancillary Services (AS) market has been target of constant renovations in its operation mode as it is a targeted market for the trading of services, which have as main objective to ensure the operation of electric power systems with appropriate levels of stability, safety, quality, equity and competitiveness. In this way, with the increasing penetration of distributed energy resources including distributed generation, demand response, storage units and electric vehicles, it is essential to develop new smarter and hierarchical methods of operation of electric power systems. As these resources are mostly connected to the distribution network, it is important to consider the introduction of this kind of resources in AS delivery in order to achieve greater reliability and cost efficiency of electrical power systems operation. The main contribution of this work is the design and development of mechanisms and methodologies of AS market and for energy and AS joint market, considering different management entities of transmission and distribution networks. Several models developed in this work consider the most common AS in the liberalized market environment: Regulation Down; Regulation Up; Spinning Reserve and Non-Spinning Reserve. The presented models consider different rules and ways of operation, such as the division of market by network areas, which allows the congestion management of interconnections between areas; or the ancillary service cascading process, which allows the replacement of AS of superior quality by lower quality of AS, ensuring a better economic performance of the market. A major contribution of this work is the development an innovative methodology of market clearing process to be used in the energy and AS joint market, able to ensure viable and feasible solutions in markets, where there are technical constraints in the transmission network involving its division into areas or regions. The proposed method is based on the determination of Bialek topological factors and considers the contribution of the dispatch for all services of increase of generation (energy, Regulation Up, Spinning and Non-Spinning reserves) in network congestion. The use of Bialek factors in each iteration of the proposed methodology allows limiting the bids in the market while ensuring that the solution is feasible in any context of system operation. Another important contribution of this work is the model of the contribution of distributed energy resources in the ancillary services. In this way, a Virtual Power Player (VPP) is considered in order to aggregate, manage and interact with distributed energy resources. The VPP manages all the agents aggregated, being able to supply AS to the system operator, with the main purpose of participation in electricity market. In order to ensure their participation in the AS, the VPP should have a set of contracts with the agents that include a set of diversified and adapted rules to each kind of distributed resource. All methodologies developed and implemented in this work have been integrated into the MASCEM simulator, which is a simulator based on a multi-agent system that allows to study complex operation of electricity markets. In this way, the developed methodologies allow the simulator to cover more operation contexts of the present and future of the electricity market. In this way, this dissertation offers a huge contribution to the AS market simulation, based on models and mechanisms currently used in several real markets, as well as the introduction of innovative methodologies of market clearing process on the energy and AS joint market. This dissertation presents five case studies; each one consists of multiple scenarios. The first case study illustrates the application of AS market simulation considering several bids of market players. The energy and ancillary services joint market simulation is exposed in the second case study. In the third case study it is developed a comparison between the simulation of the joint market methodology, in which the player bids to the ancillary services is considered by network areas and a reference methodology. The fourth case study presents the simulation of joint market methodology based on Bialek topological distribution factors applied to transmission network with 7 buses managed by a TSO. The last case study presents a joint market model simulation which considers the aggregation of small players to a VPP, as well as complex contracts related to these entities. The case study comprises a distribution network with 33 buses managed by VPP, which comprises several kinds of distributed resources, such as photovoltaic, CHP, fuel cells, wind turbines, biomass, small hydro, municipal solid waste, demand response, and storage units.
Resumo:
Currently excessive fossil fuel consumption has become a serious problem. People are searching for new solutions of energy production and there are several options to obtain alternative sources of energy without further devastating the already destroyed environment. One of these solutions is growing microalgae, from which biodiesel can be obtained. The microalgae production is a growing business because of its many useful compounds. In order to collect these compounds microalgae must first be harvested and then dried. Nowadays the solutions used for drying use too much energy and therefore are too expensive and not sustainable. The goal of this project, one of the possible choices during the EPS@ISEP 2013 Spring, was to develop a solar microalgae dryer. The multinational team involved in its development was composed of five students, from distinct countries and fields of study, and was the responsible for designing a solar microalgae dryer prototype for the microalgae laboratory of the chemical engineering department at ISEP, suitable for future tests and incorporating control process (in order not to destroy the microalgae during the drying process). The solar microalgae dryer was built to work as a distiller that gets rid of the excess water from the microalgae suspension. This paper presents a possible solution for this problem, the steps to create the device to harvest the microalgae by drying them with the use of solar energy (also used as an energy source for the solar dryer control system), the technologies used to build the solar microalgae dryer, and the benefits it presents compared to current solutions. It also presents the device from the ethical and sustainable viewpoint. Such alternative to already existing methods is competitive as far as energy usage is concerned.
Resumo:
The goal of this EPS@ISEP project proposed in the Spring of 2014 was to develop a flapping wing flying robot. The project was embraced by a multinational team composed of four students from different countries and fields of study. The team designed and implemented a robot inspired by a biplane design, constructed from lightweight materials and battery powered. The prototype, called MyBird, was built with a 250 € budget, reuse existing materials as well as low cost solutions. Although the team's initial idea was to build a light radio controlled robot, time limitations along with setbacks involving the required electrical components led to a light but not radio controlled prototype. The team, from the experience gathered, made a number of future improvement suggestions, namely, the addition of radio control and a camera and the adoption of articulated monoplane design instead of the current biplane design for the wings.
Resumo:
Coarse Grained Reconfigurable Architectures (CGRAs) are emerging as enabling platforms to meet the high performance demanded by modern applications (e.g. 4G, CDMA, etc.). Recently proposed CGRAs offer time-multiplexing and dynamic applications parallelism to enhance device utilization and reduce energy consumption at the cost of additional memory (up to 50% area of the overall platform). To reduce the memory overheads, novel CGRAs employ either statistical compression, intermediate compact representation, or multicasting. Each compaction technique has different properties (i.e. compression ratio, decompression time and decompression energy) and is best suited for a particular class of applications. However, existing research only deals with these methods separately. Moreover, they only analyze the compaction ratio and do not evaluate the associated energy overheads. To tackle these issues, we propose a polymorphic compression architecture that interleaves these techniques in a unique platform. The proposed architecture allows each application to take advantage of a separate compression/decompression hierarchy (consisting of various types and implementations of hardware/software decoders) tailored to its needs. Simulation results, using different applications (FFT, Matrix multiplication, and WLAN), reveal that the choice of compression hierarchy has a significant impact on compression ratio (up to 52%), decompression energy (up to 4 orders of magnitude), and configuration time (from 33 n to 1.5 s) for the tested applications. Synthesis results reveal that introducing adaptivity incurs negligible additional overheads (1%) compared to the overall platform area.
Resumo:
Multi-standard mobile devices are allowing users to enjoy higher data rates with ubiquitous connectivity. However, the benefits gained from multiple interfaces come at an expense—that being higher energy consumption in an era where mobile devices need to be energy compliant. One promising solution is the usage of short-range cooperative communication as an overlay for infrastructure-based networks taking advantage of its context information. However, the node discovery mechanism, which is pivotal to the bearer establishment process, still represents a major burden in terms of the total energy budget. In this paper, we propose a technology agnostic approach towards enhancing the MAC energy ratings by presenting a context-aware node discovery (CANDi) algorithm, which provides a priori knowledge towards the node discovery mechanism by allowing it to search nodes in the near vicinity at the ‘right time and at the right place’. We describe the different beacons required for establishing the cooperation, as well as the context information required, including battery level, modes, location and so on. CANDi uses the long-range network (WiMAX and WiFi) to distribute the context information about cooperative clusters (Ultra-wideband-based) in the vicinity. The searching nodes can use this context in locating the cooperative clusters/nodes, which facilitates the establishing of short-range connections. Analytical and simulation results are obtained, and the energy saving gains are further demonstrated in the laboratory using a customised testbed. CANDi saves up to 50% energy during the node discovery process, while the demonstrative testbed shows up to 75% savings in the total energy budget, thus validating the algorithm, as well as providing viable evidence to support the usage of short-range cooperative communications for energy savings.
Resumo:
Currently, due to the widespread use of computers and the internet, students are trading libraries for the World Wide Web and laboratories with simulation programs. In most courses, simulators are made available to students and can be used to proof theoretical results or to test a developing hardware/product. Although this is an interesting solution: low cost, easy and fast way to perform some courses work, it has indeed major disadvantages. As everything is currently being done with/in a computer, the students are loosing the “feel” of the real values of the magnitudes. For instance in engineering studies, and mainly in the first years, students need to learn electronics, algorithmic, mathematics and physics. All of these areas can use numerical analysis software, simulation software or spreadsheets and in the majority of the cases data used is either simulated or random numbers, but real data could be used instead. For example, if a course uses numerical analysis software and needs a dataset, the students can learn to manipulate arrays. Also, when using the spreadsheets to build graphics, instead of using a random table, students could use a real dataset based, for instance, in the room temperature and its variation across the day. In this work we present a framework which uses a simple interface allowing it to be used by different courses where the computers are the teaching/learning process in order to give a more realistic feeling to students by using real data. A framework is proposed based on a set of low cost sensors for different physical magnitudes, e.g. temperature, light, wind speed, which are connected to a central server, that the students have access with an Ethernet protocol or are connected directly to the student computer/laptop. These sensors use the communication ports available such as: serial ports, parallel ports, Ethernet or Universal Serial Bus (USB). Since a central server is used, the students are encouraged to use sensor values results in their different courses and consequently in different types of software such as: numerical analysis tools, spreadsheets or simply inside any programming language when a dataset is needed. In order to do this, small pieces of hardware were developed containing at least one sensor using different types of computer communication. As long as the sensors are attached in a server connected to the internet, these tools can also be shared between different schools. This allows sensors that aren't available in a determined school to be used by getting the values from other places that are sharing them. Another remark is that students in the more advanced years and (theoretically) more know how, can use the courses that have some affinities with electronic development to build new sensor pieces and expand the framework further. The final solution provided is very interesting, low cost, simple to develop, allowing flexibility of resources by using the same materials in several courses bringing real world data into the students computer works.
Resumo:
A água é um recurso natural único, escasso e essencial a todos os seres vivos, o que a torna um bem de extrema importância. Nos dias de hoje, o desperdício deste bem, aliado ao aumento da sua procura, tornou-se um problema devido à decrescente disponibilidade de água doce no nosso planeta. Todas as águas que rejeitamos depois da sua utilização para diversos fins, designadas de águas residuais, necessitam de tratamento antes de serem devolvidas ao meio ambiente. O seu tratamento é realizado numa Estação de Tratamento de Águas Residuais (ETAR) e o processo de tratamento depende das suas características. A ETAR das Termas de S. Vicente, em Penafiel, trabalha no seu limite de capacidade, apresenta uma sobrecarga hidráulica gerada por uma afluência de águas pluviais e o processamento das lamas geradas não permite uma secagem tão completa como seria desejável. Assim, este trabalho teve como objetivo o estudo do funcionamento desta ETAR com a finalidade de propor soluções que o possam otimizar. As soluções propostas para otimizar o funcionamento da ETAR em estudo são: i) a substituição de grades de limpeza manual por grades de limpeza automática de forma a reduzir a necessidade da intervenção do operador ao nível da remoção e condicionamento dos gradados; ii) a construção de um desarenador arejado que além de remover areias de diâmetro superior a 0,2 mm promove também a remoção de gorduras, protegendo desta forma os equipamentos a jusante da abrasão/desgaste prematuros e reduzindo a formação de depósitos nas tubagens; iii) a construção de um tanque de equalização de forma a garantir uma distribuição mais uniforme dos caudais e da carga poluente; iv) a substituição do enchimento do leito percolador por um meio de suporte plástico que permite atingir melhores eficiências de remoção neste tratamento biológico; v) a alteração do agente de desinfeção para radiação ultravioleta, evitando a adição de produtos químicos na água residual e possível formação de subprodutos prejudiciais ao ambiente, como ocorreria no caso da cloragem; e vi) a substituição da desidratação de lamas em leitos de secagem por filtros de banda, que é um processo mais rápido, que ocupa menos espaço e permite atingir elevadas eficiências de remoção de humidade. Para cada uma das sugestões são apresentadas as correspondentes especificações técnicas e dimensionamento. As sugestões de melhoria apresentadas neste trabalho constituem uma alternativa mais económica do que a ampliação da ETAR, que genericamente corresponde à duplicação da linha de tratamento atual. Devido à menor complexidade em termos de construção, estas sugestões podem vir a ser implementadas num futuro próximo, prolongando assim um pouco mais a vida útil da ETAR atual.
Resumo:
Na tentativa de se otimizar o processo de fabrico associado a uma tinta base aquosa (TBA), para minimizar os desvios de viscosidade final verificados, e de desenvolver um novo adjuvante plastificante para betão, recorreu-se a métodos e ferramentas estatísticas para a concretização do projeto. Relativamente à TBA, procedeu-se numa primeira fase a um acompanhamento do processo de fabrico, a fim de se obter todos os dados mais relevantes que poderiam influenciar a viscosidade final da tinta. Através de uma análise de capacidade ao parâmetro viscosidade, verificou-se que esta não estava sempre dentro das especificações do cliente, sendo o cpk do processo inferior a 1. O acompanhamento do processo resultou na escolha de 4 fatores, que culminou na realização de um plano fatorial 24. Após a realização dos ensaios, efetuou-se uma análise de regressão a um modelo de primeira ordem, não tendo sido esta significativa, o que implicou a realização de mais 8 ensaios nos pontos axiais. Com arealização de uma regressão passo-a-passo, obteve-se uma aproximação viável a um modelo de segunda ordem, que culminou na obtenção dos melhores níveis para os 4 fatores que garantem que a resposta viscosidade se situa no ponto médio do intervalo de especificação (1400 mPa.s). Quanto ao adjuvante para betão, o objetivo é o uso de polímeros SIKA ao invés da matériaprima comum neste tipo de produtos, tendo em conta o custo final da formulação. Escolheram-se 3 fatores importantes na formulação do produto (mistura de polímeros, mistura de hidrocarbonetos e % de sólidos), que resultou numa matriz fatorial 23. Os ensaios foram realizados em triplicado, em pasta de cimento, um para cada tipo de cimento mais utilizado em Portugal. Ao efetuar-se a análise estatística de dados obtiveram-se modelos de primeira ordem para cada tipo de cimento. O processo de otimização consistiu em otimizar uma função custo associada à formulação, garantindo sempre uma resposta superior à observada pelo produto considerado padrão. Os resultados foram animadores uma vez que se obteve para os 3 tipos de cimentocustos abaixo do requerido e espalhamento acima do observado pelo padrão.
Resumo:
Recent Advances in Mechanics and Materials in Design
Resumo:
The Internet of Things (IoT) has emerged as a paradigm over the last few years as a result of the tight integration of the computing and the physical world. The requirement of remote sensing makes low-power wireless sensor networks one of the key enabling technologies of IoT. These networks encompass several challenges, especially in communication and networking, due to their inherent constraints of low-power features, deployment in harsh and lossy environments, and limited computing and storage resources. The IPv6 Routing Protocol for Low Power and Lossy Networks (RPL) [1] was proposed by the IETF ROLL (Routing Over Low-power Lossy links) working group and is currently adopted as an IETF standard in the RFC 6550 since March 2012. Although RPL greatly satisfied the requirements of low-power and lossy sensor networks, several issues remain open for improvement and specification, in particular with respect to Quality of Service (QoS) guarantees and support for mobility. In this paper, we focus mainly on the RPL routing protocol. We propose some enhancements to the standard specification in order to provide QoS guarantees for static as well as mobile LLNs. For this purpose, we propose OF-FL (Objective Function based on Fuzzy Logic), a new objective function that overcomes the limitations of the standardized objective functions that were designed for RPL by considering important link and node metrics, namely end-to-end delay, number of hops, ETX (Expected transmission count) and LQL (Link Quality Level). In addition, we present the design of Co-RPL, an extension to RPL based on the corona mechanism that supports mobility in order to overcome the problem of slow reactivity to frequent topology changes and thus providing a better quality of service mainly in dynamic networks application. Performance evaluation results show that both OF-FL and Co-RPL allow a great improvement when compared to the standard specification, mainly in terms of packet loss ratio and average network latency. 2015 Elsevier B.V. Al
Resumo:
The inter-disciplinarity of information systems, applied discipline and activity of design, and the study from different paradigms perspectives explains the diversity of problems addressed. The context is broad and includes important issues beyond technology, as the application, use, effectiveness, efficiency and their organizational and social impacts. In design science, the research interest is in contributing to the improvement of the processes of the design activity itself. The relevance of research in design science is associated with the result obtained for the improvement of living conditions in organizational, inter-organizational and Society contexts. In the research whose results are artifacts, the adoption of design research as a process of research is crucial to ensure discipline, rigor and transparency. Based on a literature review, this paper clarifies the terms of design science and design research. This is the main motivation for presenting this paper, determinant for the phase in research in technologies and information systems which are the three research projects presented. As a result the three projects are discussed in relation to the concepts of design science and design research.
Resumo:
A fabricação de moldes é uma actividade que se desenvolve em Portugal há várias décadas, com qualidade reconhecida mundialmente. A indústria automóvel é um dos principais destinos de grande parte dos moldes produzidos em Portugal. Algumas das peças produzidas nesses moldes possuem dimensões apreciáveis, tendo em conta o peso e dimensão média das peças injectadas em plástico. São exemplo disso os pára-choques dos automóveis e o tabliê. A produção dos moldes para estas peças é complexa, implicando um longo tempo de maquinagem e a manipulação dos moldes em diferentes fases, com vista ao acesso a todas as faces do molde. A IGM – Indústria Global de Moldes, SA. é a empresa responsável pela produção dos moldes para peças de média dimensão dentro do Grupo SIMOLDES. Atendendo à necessidade permanente de rodar a 90o moldes de grande porte, que podem apresentar pesos na ordem das 10 a 30 toneladas, e não existindo no mercado qualquer solução adaptável a esta necessidade, a empresa entendeu por bem levar a efeito o projecto desse equipamento, atendendo ao compromisso custo-benefício que torne viável a realização prática do mesmo. Após os esboços iniciais e uma discussão interactiva e iterativa com a empresa, foram analisadas as diferentes soluções entendidas como viáveis, tendo sido escolhido um dos anteprojectos realizados. Foram ainda discutidas as diversas alternativas de accionamento. Com base nesse anteprojecto, a estrutura foi optimizada e verificada através do Método de Elementos Finitos, tendo sido elaborado o projecto final, com o grau de detalhe necessário à sua fabricação e implementação na empresa.
Resumo:
Trabalho de Projeto apresentado ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Internacionalização e Empreendedorismo, sob orientação da Professora Doutora Maria Clara Dias Pinto Ribeiro Esta versão não contém as críticas e sugestões dos elementos do júri.