14 resultados para Efficient Production Scale
em Instituto Politécnico do Porto, Portugal
Resumo:
Para conseguir responder às exigências atuais dos mercados, as indústrias necessitam de ser flexíveis, ou seja, é necessário terem a capacidade de adaptar o seu funcionamento e os seus produtos às alterações que se sucedem. Como forma de responder a este facto, o funcionamento da empresa assenta numa produção flexível para conseguir que os seus produtos que abranjam diferente o maior número possível de clientes. No entanto esta metodologia tem apresentado alguns problemas na sua implementação, por isso com o objetivo de obter uma produção mais eficaz e eficiente, a empresa tem canalizado esforços para a melhoria contínua das linhas de montagem. O trabalho desenvolvido na FUTE está enquadrado com a melhoria contínua e visa o processo de abastecimento dos diversos materiais necessários para a produção, característica fundamental para que as linhas possam produzir de forma contínua. Este estudo iniciou-se por analisar o método de abastecimento e identificar os seus problemas e causas, para que posteriormente com o auxílio dos conhecimentos adq uiridos, fosse possível conceber soluções. Os resultados apresentados neste trabalho demonstram que as melhorias implementadas a nível de organização de armazéns, métodos de trabalho e meios de transporte de materiais permitem diminuir o tempo e os recursos necessários durante o processo de abastecimento, além de melhorar condições de trabalho dos operários.
Resumo:
We focus on large-scale and dense deeply embedded systems where, due to the large amount of information generated by all nodes, even simple aggregate computations such as the minimum value (MIN) of the sensor readings become notoriously expensive to obtain. Recent research has exploited a dominance-based medium access control(MAC) protocol, the CAN bus, for computing aggregated quantities in wired systems. For example, MIN can be computed efficiently and an interpolation function which approximates sensor data in an area can be obtained efficiently as well. Dominance-based MAC protocols have recently been proposed for wireless channels and these protocols can be expected to be used for achieving highly scalable aggregate computations in wireless systems. But no experimental demonstration is currently available in the research literature. In this paper, we demonstrate that highly scalable aggregate computations in wireless networks are possible. We do so by (i) building a new wireless hardware platform with appropriate characteristics for making dominance-based MAC protocols efficient, (ii) implementing dominance-based MAC protocols on this platform, (iii) implementing distributed algorithms for aggregate computations (MIN, MAX, Interpolation) using the new implementation of the dominance-based MAC protocol and (iv) performing experiments to prove that such highly scalable aggregate computations in wireless networks are possible.
Resumo:
This paper proposes a computationally efficient methodology for the optimal location and sizing of static and switched shunt capacitors in large distribution systems. The problem is formulated as the maximization of the savings produced by the reduction in energy losses and the avoided costs due to investment deferral in the expansion of the network. The proposed method selects the nodes to be compensated, as well as the optimal capacitor ratings and their operational characteristics, i.e. fixed or switched. After an appropriate linearization, the optimization problem was formulated as a large-scale mixed-integer linear problem, suitable for being solved by means of a widespread commercial package. Results of the proposed optimizing method are compared with another recent methodology reported in the literature using two test cases: a 15-bus and a 33-bus distribution network. For the both cases tested, the proposed methodology delivers better solutions indicated by higher loss savings, which are achieved with lower amounts of capacitive compensation. The proposed method has also been applied for compensating to an actual large distribution network served by AES-Venezuela in the metropolitan area of Caracas. A convergence time of about 4 seconds after 22298 iterations demonstrates the ability of the proposed methodology for efficiently handling large-scale compensation problems.
Resumo:
Mestrado em Engenharia Electrotécnica e de Computadores
Resumo:
O óxido de polifenileno com a marca comercial PPO® é uma das resinas principais produzidas na SABIC IP e o ingrediente principal do plástico de engenharia com a marca registada, Noryl®. A equipa de tecnologia de processo de PPO® desenvolve uma série de novos produtos em reactores de pequena escala, tanto em Selkirk como em Bergen op Zoom. Para se efectuar uma transição rápida da escala laboratorial para a fábrica, é necessário um conhecimento completo do reactor. O objectivo deste projecto consiste em esboçar linhas gerais para o scale-up de novos produtos de PPO1, do laboratório para a escala industrial, baseado no estudo de um tipo de PPO, PPO 803. Este estudo pode ser dividido em duas fases. Numa primeira fase, as receitas e os perfis da reacção são comparados, de onde se retiram as primeiras conclusões. Posteriormente, com base nestas conclusões, é realizado um planeamento experimental. O estudo inicial sugeriu que a receita, a temperatura inicial do reactor e a velocidade do agitador poderiam influenciar o tempo da reacção bem como a queda da velocidade intrínseca do polímero (IV drop). As reacções experimentais mostraram que a receita é o principal factor que influencia, tanto o tempo de reacção, como a queda de viscosidade intrínseca. O tempo de reacção será tanto maior quanto menor a agitação devido à má dispersão do oxigénio na mistura. O uso de temperaturas iniciais elevadas conduz a uma queda maior da viscosidade intrínseca devido à desactivação do catalisador. O método experimental utilizado no laboratório de Bergen op Zoom é um bom exemplo, simulador, do procedimento utilizado na fábrica.
Resumo:
The first and second authors would like to thank the support of the PhD grants with references SFRH/BD/28817/2006 and SFRH/PROTEC/49517/2009, respectively, from Fundação para a Ciência e Tecnol ogia (FCT). This work was partially done in the scope of the project “Methodologies to Analyze Organs from Complex Medical Images – Applications to Fema le Pelvic Cavity”, wi th reference PTDC/EEA- CRO/103320/2008, financially supported by FCT.
Resumo:
Network control systems (NCSs) are spatially distributed systems in which the communication between sensors, actuators and controllers occurs through a shared band-limited digital communication network. However, the use of a shared communication network, in contrast to using several dedicated independent connections, introduces new challenges which are even more acute in large scale and dense networked control systems. In this paper we investigate a recently introduced technique of gathering information from a dense sensor network to be used in networked control applications. Obtaining efficiently an approximate interpolation of the sensed data is exploited as offering a good tradeoff between accuracy in the measurement of the input signals and the delay to the actuation. These are important aspects to take into account for the quality of control. We introduce a variation to the state-of-the-art algorithms which we prove to perform relatively better because it takes into account the changes over time of the input signal within the process of obtaining an approximate interpolation.
Resumo:
Cluster scheduling and collision avoidance are crucial issues in large-scale cluster-tree Wireless Sensor Networks (WSNs). The paper presents a methodology that provides a Time Division Cluster Scheduling (TDCS) mechanism based on the cyclic extension of RCPS/TC (Resource Constrained Project Scheduling with Temporal Constraints) problem for a cluster-tree WSN, assuming bounded communication errors. The objective is to meet all end-to-end deadlines of a predefined set of time-bounded data flows while minimizing the energy consumption of the nodes by setting the TDCS period as long as possible. Sinceeach cluster is active only once during the period, the end-to-end delay of a given flow may span over several periods when there are the flows with opposite direction. The scheduling tool enables system designers to efficiently configure all required parameters of the IEEE 802.15.4/ZigBee beaconenabled cluster-tree WSNs in the network design time. The performance evaluation of thescheduling tool shows that the problems with dozens of nodes can be solved while using optimal solvers.
Resumo:
Consider a wireless sensor network (WSN) where a broadcast from a sensor node does not reach all sensor nodes in the network; such networks are often called multihop networks. Sensor nodes take individual sensor readings, however, in many cases, it is relevant to compute aggregated quantities of these readings. In fact, the minimum and maximum of all sensor readings at an instant are often interesting because they indicate abnormal behavior, for example if the maximum temperature is very high then it may be that a fire has broken out. In this context, we propose an algorithm for computing the min or max of sensor readings in a multihop network. This algorithm has the particularly interesting property of having a time complexity that does not depend on the number of sensor nodes; only the network diameter and the range of the value domain of sensor readings matter.
Resumo:
In this study, the added value resultant from the incorporation of pultrusion production waste into polymer based concretes was assessed. For this purpose, different types of thermoset composite scrap material, proceeding from GFRP pultrusion manufacturing process, were mechanical shredded and milled into a fibrous-powdered material. Resultant GFRP recyclates, with two different size gradings, were added to polyester based mortars as fine aggregate and filler replacements, at various load contents between 4% up to 12% in weight of total mass. Flexural and compressive loading capacities were evaluated and found better than those of unmodified polymer mortars. Obtained results highlight the high potential of recycled GFRP pultrusion waste materials as efficient and sustainable admixtures for concrete and mortar-polymer composites, constituting an emergent waste management solution.
Resumo:
Nesta dissertação pretendeu-se estudar a viabilidade do uso de eletrodiálise com membranas bipolares (BM) na recuperação de ácido clorídrico e de hidróxido de sódio a partir de um efluente industrial que contém 1.4 mol/L de cloreto de sódio. Estas membranas mostraram ser uma ferramenta eficiente para a produção de ácidos e bases a partir do respetivo sal. Foi feita uma seleção de diferentes membranas bipolares (Neosepta, Fumatech e PCA) e aniónicas (PC-SA e PC-ACID 60) na tentativa de encontrar a combinação mais adequada para o tratamento do efluente. Dependendo do critério, o melhor arranjo de membranas é o uso de PC-ACID 60 (membrana aniónica), PC-SK (membrana catiónica) e membranas bipolares do tipo Neosepta para maior pureza dos produtos; membranas bipolares Fumatech para maior eficiência de dessalinização e membranas bipolares PCA para um maior grau de dessalinização. Tecnologicamente foi possível obter uma dessalinização de 99.8% em quatro horas de funcionamento em modo batch com recirculação de todas as correntes. Independentemente da combinação usada é recomendável que o processo seja parado quando a densidade de corrente deixa de ser máxima, 781 A/m2. Assim é possível evitar o aumento de impurezas nos produtos, contra difusão, descida instantânea do pH e uma dessalinização pouco eficiente. A nível piloto o principal fornecedor de membranas e unidade de tratamento “stack” é a marca alemã PCA. Sendo assim realizaram-se ensaios de repetibilidade, contra difusão, avaliação económica e upscaling utilizando as membranas bipolares PCA. A nível económico estudou-se o uso de dois tipos de unidades de tratamento; EDQ 380 e EDQ 1600, para diferentes níveis de dessalinização (50, 75 e 80%). Tendo em conta a otimização económica, é recomendável uma dessalinização máxima de 80%, uma vez que a eficiência de processo a este ponto é de 40%. A aplicação do método com a unidade EDQ 1600 para uma dessalinização de 50% é a mais vantajosa economicamente, com custos de 16 €/m3 de efluente tratado ou 0,78 €/kg Cl- removido. O número de unidades necessárias é 4 posicionados em série.
Resumo:
As competências narrativas emergem desde cedo, e vão sendo adquiridas ao longo do desenvolvimento da criança. No entanto não significa que se desenrolam do mesmo modo em todos as crianças pois crianças com dificuldades na produção narrativa poderão ter necessidade de um ensino específico e estruturado. Sendo a narrativa um aspeto importante da linguagem, é fundamental agir o mais cedo possível para prevenir futuros problemas, tanto no percurso académico como social. Tendo por base as questões em torno da produção narrativa, o presente estudo tem como objetivo compreender a influência da intervenção narrativa no reconto e nas narrativas de experiência pessoal em oito crianças do pré-escolar (5/6 anos), estando um dos participantes diagnosticado com uma condição do espetro do autismo. Ao longo do estudo, todos os participantes foram sendo avaliados pela escala Narrative Language Measures durante 10 sessões e quanto à intervenção narrativa denominada Campeões de histórias consistiu em 21 sessões com duração média de 25 minutos. Neste estudo recorremos ao delineamento experimental de linha de base múltipla, o que nos permitiu analisar o desempenho de cada participante ao longo do tempo. Os resultados revelaram que através da intervenção narrativa houve um aumento na cotação dos testes da escala em todos os participantes, inclusive na criança com condição do espetro autista, e que esses se mantiveram sempre acima dos níveis basais após um período de duas semanas sem intervenção. Deste modo, podemos concluir que a intervenção narrativa produziu efeitos relevantes quer no reconto, quer nas narrativas de experiência pessoal dos participantes e que se apresenta como uma intervenção económica, rápida e eficaz.
Resumo:
Background Over the years, food industry wastes have been the focus of a growing interest due to their content in high added-value compounds. A good example are the olive oil by-products (OOBP), which retain a great amount of phenolic compounds during olive oil production. Their structure and biological properties justify their potential use as antioxidants in other food products. The efficient recovery of phenolic compounds has been extensively studied and optimized in order to maximize their reintroduction in the food chain and contribute to a higher valorization and better management of wastes from olive oil industry. Scope and approach This paper reviews the most representative phenolic compounds described in OOBP and their biological properties. New extraction procedures to efficiently recover these compounds and the most advanced chromatographic techniques that have been used for a better understanding of the phenolic profile of these complex matrices are also referred. Finally, this paper reports the main applications of OOBP, with emphasis on their phenolic content as natural antioxidants for food applications. Key findings and conclusions Besides their antioxidant activity, phenolic compounds from OOBP have also shown antimicrobial and antitumoral properties. Their application as food antioxidants requires new extraction techniques, including the use of non-toxic solvents and, in a pilot scale, the use of filters and adsorbent resins. The inclusion of phenolic compounds from OOBP in some food matrices have improved not only their antioxidant capacity but also their sensory attributes.
Resumo:
A preocupação com o meio ambiente, nomeadamente na descarga de águas residuais, consumo de água excessivo e produção de resíduos industriais, está cada vez mais presente no quotidiano. Devido a estas problemáticas, efetuou-se a avaliação de impacte ambiental (AIA) do processo produtivo das rolhas de cortiça naturais, tratamento das águas de cozedura da cortiça (estudo da possível reutilização do efluente tratado) e valorização de subprodutos – resíduo sólido (raspa de cortiça), sendo estes os objetivos propostos para a realização da presente dissertação. Na AIA, efetuada no decorrer das fases da Análise do Ciclo de Vida (ACV), foram selecionadas 8 categorias de impacte – aquecimento global, acidificação, dessecação, toxicidade e ecotoxicidade, eutrofização, consumo de recursos não renováveis e oxidação foto-química. A água de cozedura caracterizou-se por uma elevada carga poluente, apresentando elevada concentração de cor, Carência Química de Oxigénio (CQO), taninos e lenhina e Sólidos Suspensos Totais (SST). O processo de tratamento proposto consistiu num pré-tratamento por ultrafiltração (UF), com membranas de 30.000 e 20.000 MWCO, seguido de adsorção por carvão ativado (comercial e produzido a partir de raspa de cortiça). No tratamento por UF, utilizando uma membrana de 30.000 MWCO, foram obtidas percentagens de remoção para a primeira amostra de água de cozedura de 74,8 % para a cor, 33,1 % para a CQO e para a segunda amostra de 85,2 % para a cor e 41,8 % para a CQO. Posteriormente, apenas para a segunda amostra de água de cozedura e com uma membrana de 20.000 MWCO, as percentagens de remoção obtidas foram superiores, de 93% para a cor, 68,9 % para a CQO, 88,4 % para taninos e lenhina e 43,0 % para azoto total. No tratamento por adsorção com carvão ativado estudou-se o tempo de equilíbrio do carvão ativado comercial e do carvão ativado produzido a partir de aparas de cortiça, seguindo-se o estudo das isotérmicas de adsorção, no qual foram analisados os parâmetros da cor e CQO para cada solução. Os ajustes dos modelos teóricos aos pontos experimentais demonstraram que ambos os modelos (Langmuir e Freundlich) poderiam ser considerados, uma vez que apresentaram ajustes idênticos. Relativamente ao tratamento de adsorção em contínuo do permeado, obtido por UF com membrana de 20.000 MWCO, constatou-se que ambos os carvões ativados (comercial e produzido) não ficaram saturados, tendo em consideração os tempos de saturação estimados pela capacidade máxima de adsorção (determinada para a isotérmica de Langmuir) e as representações gráficas dos valores experimentais obtidos para cada ensaio. No ensaio de adsorção com carvão ativado comercial verificou-se que o efluente tratado poderia ser descarregado no meio hídrico ou reutilizado no processo industrial (considerando os parâmetros analisados), uma vez que até aos 11 minutos de ensaio a concentração da solução à saída foi de 111,50 mg/L O2, para a CQO, e incolor, numa diluição de 1:20. Em relação à adsorção em contínuo com carvão ativado produzido verificou-se no ensaio 4 que o efluente resultante apresentou uma concentração de CQO de 134,5 mg/L O2 e cor não visível, numa diluição de 1:20, ao fim de 1h22 min de ensaio. Assim, concluiu-se que os valores obtidos são inferiores aos valores limite de emissão (VLE) presentes no Decreto-Lei n.º 236/98 de 1 de Agosto. O carvão ativado produzido apresentou elevada área superficial específica, com 870 m2/g, comparativamente ao carvão comercial que foi de 661 m2/g. O processo de extração da suberina a partir de raspa de cortiça isenta de extraíveis, efetuado através da metanólise alcalina, apresentou percentagens de extração superiores aos restantes métodos. No processo efetuado em scale-up, por hidrólise alcalina, obteve-se uma extração de 3,76 % de suberina. A aplicação da suberina no couro demonstrou que esta cera apresenta enormes potencialidades, uma vez que a sua aplicação confere ao couro um aspeto sedoso, com mais brilho e um efeito de “pull-up”.