15 resultados para Fix and optimize
em Instituto Politécnico do Porto, Portugal
Resumo:
Este relatório de estágio foi desenvolvido no âmbito do estágio de final de curso, em ambiente industrial, do Mestrado em Engenharia e Gestão Industrial da ESEIG. O estágio foi realizado na Continental Mabor S.A., situada em Vila Nova de Famalicão, mais especificamente no Departamento de Engenharia Industrial. A indústria dos pneus está inserida num mercado cada vez mais competitivo e exigente, em que os custos e os prazos de entrega devem ser cada vez menores e a qualidade do produto cada vez maior. Por esses motivos, é necessária uma constante melhoria dos processos produtivos. Para que este esforço de melhoria contínua seja bem-sucedido é necessário recorrer por vezes a prémios de produção, para incentivar uma maior produtividade. Contudo cada pneu tem tempos de produção diferentes de máquina para máquina e é preciso corrigir esses tempos em prol de uma justa atribuição de prémios. O presente trabalho teve como principal objetivo atualizar as perturbações e atualizar os tempos-máquina no setor de construção de pneus. Inicialmente foi recolhido o tempo de aplicação do capply (material que pertence ao pneu) para futuramente verificar se será possível prever o tempo de aplicação de capply, consoante os metros de aplicação. Como não foi possível estabelecer uma correlação, não será exposta a análise até se chegar a essa conclusão. Depois fez-se o estudo das perturbações, com recurso à cronometragem, na maior das cinco divisões da fábrica - a construção. Por último fez-se a recolha dos tempos-máquina de vários tipos de construção de pneus em todos os módulos de construção de pneus (KM e PU), através do método filmagem. Conseguiu-se singularizar os tempos para cada máquina de forma a tornar, mais justo os prémios de produção atribuídos aos operadores, no curto prazo, e optimizar a produção e o tempo-padrão.
Resumo:
O presente trabalho teve como principais objectivos, estudar e optimizar o processo de tratamento do efluente proveniente das máquinas da unidade Cold-press da linha de produção da Empresa Swedwood, caracterizar a solução límpida obtida no tratamento e estudar a sua integração no processo, e por fim caracterizar o resíduo de pasta de cola obtido no tratamento e estudar a possível valorização energética deste resíduo. Após caracterização inicial do efluente e de acordo com os resultados de um estudo prévio solicitado pela Empresa Swedwood a uma empresa externa, decidiu-se iniciar o estudo de tratabilidade do efluente pelo processo físico-químico a coagulação/floculação. No processo de coagulação/floculação estudou-se a aplicabilidade, através de ensaios Jar-test, dos diferentes agentes de coagulação/floculação: a soda cáustica, a cal, o cloreto férrico e o sulfato de alumínio. Os melhores resultados neste processo foram obtidos com a adição de uma dose de cal de 500 mg/Lefluente, seguida da adição de 400 mg/Lefluente de sulfato de alumínio. Contudo, após este tratamento o clarificado obtido não possuía as características necessárias para a sua reintrodução no processo fabril nem para a sua descarga em meio hídrico. Deste modo procedeu-se ao estudo de tratamentos complementares. Nesta segunda fases de estudo testaram-se os seguintes os tratamentos: a oxidação química por Reagente de Fenton, o tratamento biológico por SBR (sequencing batch reactor) e o leito percolador. Da análise dos resultados obtidos nos diferentes tratamentos conclui-se que o tratamento mais eficaz foi o tratamento biológico por SBR com adição de carvão activado. Prevê-se que no final do processo de tratamento o clarificado obtido possa ser descarregado em meio hídrico ou reintroduzido no processo. Como o estudo apenas foi desenvolvido à escala laboratorial, seria útil poder validar os resultados numa escala piloto antes da sua implementação industrial. A partir dos resultados do estudo experimental, procedeu-se ao dimensionamento de uma unidade de tratamento físico-químico e biológico à escala industrial para o tratamento de 20 m3 de efluente produzido na fábrica, numa semana. Dimensionou-se ainda a unidade (leito de secagem) para tratamento das lamas produzidas. Na unidade de tratamento físico-químico (coagulação/floculação) os decantadores estáticos devem possuir o volume útil de 4,8 m3. Sendo necessários semanalmente 36 L da suspensão de cal (Neutrolac 300) e 12,3 L da solução de sulfato de alumínio a 8,3%. Os tanques de armazenamento destes compostos devem possuir 43,2 litros e 96 litros, respectivamente. Nesta unidade estimou-se que são produzidos diariamente 1,4 m3 de lamas. Na unidade de tratamento biológico o reactor biológico deve possuir um volume útil de 6 m3. Para que este processo seja eficaz é necessário fornecer diariamente 2,1 kg de oxigénio. Estima-se que neste processo será necessário efectuar a purga de 325 litros de lamas semanalmente. No final da purga repõe-se o carvão activado, que poderá ser arrastado juntamente com as lamas, adicionando-se 100 mg de carvão por litro de licor misto. De acordo com o volume de lamas produzidos em ambos os tratamentos a área mínima necessária para o leito de secagem é de cerca de 27 m2. A análise económica efectuada mostra que a aquisição do equipamento tem o custo de 22.079,50 euros, o custo dos reagentes necessários neste processo para um ano de funcionamento tem um custo total de 508,50 euros e as necessidades energéticas de 2.008,45 euros.
Resumo:
A crise económica global que se faz sentir leva a que surja uma necessidade de aumentar a competitividade das empresas, através da melhoria de performance dos seus colaboradores. Nesse sentido, Lean Manufacturing é uma área que merece a atenção das empresas e dos seus colaboradores, uma vez que os seus principais objectivos são o aumento da produtividade, a redução dos desperdícios e a optimização dos recursos disponíveis. Uma ferramenta do Lean que merece especial destaque é o Método 5S, que permite aumentar a produtividade através do aumento da organização do posto de trabalho. Uma vez que usar postos de trabalho a mais, de modo a que os colaboradores pratiquem e aprendam a aplicar as regras do 5S, fica dispendioso em tempo de trabalho e custos acrescidos pela paragem da linha produção, surge a necessidade de criação de um Jogo Sério que ajude na aprendizagem destes temas. Um breve estudo do mercado revelou que esta necessidade não está a ser devidamente respondida. Existem algumas entidades que se dedicam ao ensino e partilha deste tipo de conhecimentos, sendo poucas as que têm ferramentas digitais disponíveis. Esta dissertação propõe um Jogo Sério que pretende dar resposta a esta necessidade, permitindo pôr em prática o Método 5S, servindo ainda como ferramenta motivadora, para que o colaborador aprofunde o seu conhecimento na matéria. Esta abordagem prática encoraja o jogador a aprender por tentativa e erro. Informações mostradas ao longo do jogo permitem uma aprendizagem sem haver uma sobrecarga cognitiva. A avaliação do jogo, realizada por um grupo de alunos que frequentam o Mestrado em Engenharia Mecânica, demonstrou que a nossa abordagem é eficiente e resulta na aprendizagem dos conceitos 5S.
Resumo:
No presente trabalho procura-se evidenciar algumas soluções para aplicação de simulação estocástica num contexto de gestão dos ativos, aplicado a um sistema de abastecimento de água, tirando partido da informação disponível sobre a manutenção que vem realizando, ao longo dos anos. Procura-se também descrever como estas metodologias podem ser aplicadas noutros casos, futuramente, beneficiando ainda da recolha de informação de colaboradores da empresa, com experiência no cargo e com elevado conhecimento do funcionamento das infraestruturas. A simulação estocástica é uma área cujas ferramentas podem dar uma preciosa ajuda no processo de tomada de decisão. Por outro lado, as organizações preocupam-se, cada vez mais, com o tema da gestão de ativos e com os custos a si associados, começando a investir mais tempo e dinheiro nessa matéria com o objetivo de delinearem estratégias para aumentar o período de vida útil dos seus ativos e otimizarem os seus investimentos de renovação. Nesse contexto, evidencia-se que um adequado plano de intervenções de manutenção e operação é uma boa metodologia, para garantir a redução de falhas no sistema de abastecimento de uma empresa desse setor, bem como garantir que as infraestruturas se encontram em condições de funcionamento. Contudo, esta abordagem tradicional não será suficiente para garantir as melhores práticas e os objetivos que se pretendem alcançar com uma gestão de ativos atual. O trabalho inclui, ainda, um estudo de caso com que se aplicaram as ferramentas estudadas a um caso real de um grupo de bombagem, de uma das Estações Elevatórias da empresa.
Resumo:
Manufacturing processes need permanently to innovate and optimize because any can be susceptible to continuous improvement. Innovation and commitment to the development of these new solutions resulting from existing expertise and the continuing need to increase productivity, flexibility and ensuring the necessary quality of the manufactured products. To increase flexibility, it is necessary to significantly reduce set-up times and lead time in order to ensure the delivery of products ever faster. This objective can be achieved through a normalization of the pultrusion line elements. Implicitly, there is an increase of productivity by this way. This work is intended to optimize the pultrusion process of structural profiles. We consider all elements of the system from the storehouse of the fibers (rack) to the pultrusion die. Particular attention was devoted to (a) the guidance system of the fibers and webs, (b) the resin container where the fibers are impregnated, (c) standard plates positioning of the fibers towards the entrance to the spinneret and also (d) reviewed the whole process of assembling and fixing the die as well as its the heating system. With the implementation of these new systems was achieved a significant saving of time set-up and were clearly reduced the unit costs of production. Quality assurance was also increased.
Resumo:
O consumo energético verificado nas refinarias petrolíferas é muito elevado, sendo as fornalhas os equipamentos que mais contribuem para esse consumo. Neste estudo foi efetuada uma avaliação e otimização energética às fornalhas da Fábrica de Aromáticos da Refinaria de Matosinhos. Numa primeira fase foi efetuado um levantamento exaustivo de dados de todas as correntes de entrada e saída dos equipamentos para posteriormente efetuar os balanços de massa e energia a cada uma das fornalhas. Os dados relativos ao levantamento compreenderam dois períodos de funcionamento distintos da unidade fabril, o período de funcionamento normal e o período relativo ao arranque. O período de funcionamento normal foi relativo ao ano de 2012 entre os meses de janeiro a setembro, por sua vez o período de arranque foi de dezembro de 2012 a março de 2013. Na segunda fase foram realizados os balanços de massa e energia quantificando todas as correntes de entrada e saída das fornalhas em termos mássicos e energéticos permitindo o cálculo do rendimento térmico das fornalhas para avaliar a sua performance. A avaliação energética permitiu concluir que existe um consumo maior de energia proveniente da combustão do Fuel Gás do que do Fuel Óleo, tanto no período de funcionamento normal como no arranque. As fornalhas H0101, H0301 e a H0471 possuem os consumos mais elevados, sendo responsáveis por mais de 70% do consumo da Fábrica de Aromáticos. Na terceira fase foram enunciadas duas medidas para a otimização energética das três fornalhas mais consumidoras de energia, a limpeza mensal e o uso exclusivo de Fuel Gás como combustível. As poupanças energéticas obtidas para uma limpeza mensal foram de 0,3% na fornalha H0101, 0,7% na fornalha H0301 e uma poupança de 0,9 % na fornalha H0471. Para o uso exclusivo de Fuel Gás obteve-se uma poupança de 0,9% na fornalha H0101 e uma poupança de 1,3% nas fornalhas H0301 e H0471. A análise económica efetuada à sugestão de alteração do combustível mostra que os custos de operação sofrerão um aumento anual de 621 679 €. Apesar do aumento dos custos, a redução na emissão de 24% de dióxido de carbono, poderá justificar este aumento na despesa.
Resumo:
A Iberwind recebeu o aluno estagiário para a realização de um projeto de consultoria técnica focada nos acessos dos seus 31 parques eólicos presentes no território nacional. É apresentada a empresa, bem como todo o processo de construção e desenvolvimento de parques eólicos. O presente relatório de estágio foca-se, maioritariamente, na reabilitação de acessos a parques eólicos, debruçando-se sobre as especialidades de terraplenagens, drenagem e pavimentação, bem como as condicionantes geométricas. Verifica-se que com o passar dos anos, após a construção dos primeiros empreendimentos, começa a denotar-se a deterioração dos acessos aos mesmos. É, por isso, relevante e significativo o trabalho realizado no âmbito do estágio, por forma a avaliar as diversas necessidades de reabilitação e manutenção dos acessos a apresentar soluções globais. O levantamento de campo realizado cobriu todo o portefólio da empresa e documentou a totalidade das patologias relacionadas com as especialidades de pavimentação e drenagem. Executaram-se visitas a todos os parques, acompanhadas pelos operadores dos mesmos, e aliaram-se às mesmas entrevistas aos supervisores de zona com o intuito de aglomerar informação e contextualizar a problemática. Realizou-se uma proposta de reabilitação dos acessos em piores condições, o que levou à adjudicação da obra e acompanhamento de alguns trabalhos por parte do autor no presente ano. O trabalho realizado e detalhadamente documentado permitiu a criação de uma metodologia de inspeção e manutenção a ser implementada nos parques eólicos do grupo, de forma a reduzir custos e otimizar recursos a longo prazo. A metodologia consiste, de forma sintetizada, na inspecção periódica dos acessos de cada parque pelas equipas de campo e a definição das necessidades prioritárias de manutenção e reabilitação dos mesmos de maneira independente.
Resumo:
This paper consist in the establishment of a Virtual Producer/Consumer Agent (VPCA) in order to optimize the integrated management of distributed energy resources and to improve and control Demand Side Management DSM) and its aggregated loads. The paper presents the VPCA architecture and the proposed function-based organization to be used in order to coordinate the several generation technologies, the different load types and storage systems. This VPCA organization uses a frame work based on data mining techniques to characterize the costumers. The paper includes results of several experimental tests cases, using real data and taking into account electricity generation resources as well as consumption data.
Resumo:
This paper describes the communication stack of the REMPLI system: a structure using power-lines and IPbased networks for communication, for data acquisition and control of energy distribution and consumption. It is furthermore prepared to use alternative communication media like GSM or analog modem connections. The REMPLI system provides communication service for existing applications, namely automated meter reading, energy billing and domotic applications. The communication stack, consisting of physical, network, transport, and application layer is described as well as the communication services provided by the system. We show how the peculiarities of the power-line communication influence the design of the communication stack, by introducing requirements to efficiently use the limited bandwidth, optimize traffic and implement fair use of the communication medium for the extensive communication partners.
Resumo:
To meet the increasing demands of the complex inter-organizational processes and the demand for continuous innovation and internationalization, it is evident that new forms of organisation are being adopted, fostering more intensive collaboration processes and sharing of resources, in what can be called collaborative networks (Camarinha-Matos, 2006:03). Information and knowledge are crucial resources in collaborative networks, being their management fundamental processes to optimize. Knowledge organisation and collaboration systems are thus important instruments for the success of collaborative networks of organisations having been researched in the last decade in the areas of computer science, information science, management sciences, terminology and linguistics. Nevertheless, research in this area didn’t give much attention to multilingual contexts of collaboration, which pose specific and challenging problems. It is then clear that access to and representation of knowledge will happen more and more on a multilingual setting which implies the overcoming of difficulties inherent to the presence of multiple languages, through the use of processes like localization of ontologies. Although localization, like other processes that involve multilingualism, is a rather well-developed practice and its methodologies and tools fruitfully employed by the language industry in the development and adaptation of multilingual content, it has not yet been sufficiently explored as an element of support to the development of knowledge representations - in particular ontologies - expressed in more than one language. Multilingual knowledge representation is then an open research area calling for cross-contributions from knowledge engineering, terminology, ontology engineering, cognitive sciences, computational linguistics, natural language processing, and management sciences. This workshop joined researchers interested in multilingual knowledge representation, in a multidisciplinary environment to debate the possibilities of cross-fertilization between knowledge engineering, terminology, ontology engineering, cognitive sciences, computational linguistics, natural language processing, and management sciences applied to contexts where multilingualism continuously creates new and demanding challenges to current knowledge representation methods and techniques. In this workshop six papers dealing with different approaches to multilingual knowledge representation are presented, most of them describing tools, approaches and results obtained in the development of ongoing projects. In the first case, Andrés Domínguez Burgos, Koen Kerremansa and Rita Temmerman present a software module that is part of a workbench for terminological and ontological mining, Termontospider, a wiki crawler that aims at optimally traverse Wikipedia in search of domainspecific texts for extracting terminological and ontological information. The crawler is part of a tool suite for automatically developing multilingual termontological databases, i.e. ontologicallyunderpinned multilingual terminological databases. In this paper the authors describe the basic principles behind the crawler and summarized the research setting in which the tool is currently tested. In the second paper, Fumiko Kano presents a work comparing four feature-based similarity measures derived from cognitive sciences. The purpose of the comparative analysis presented by the author is to verify the potentially most effective model that can be applied for mapping independent ontologies in a culturally influenced domain. For that, datasets based on standardized pre-defined feature dimensions and values, which are obtainable from the UNESCO Institute for Statistics (UIS) have been used for the comparative analysis of the similarity measures. The purpose of the comparison is to verify the similarity measures based on the objectively developed datasets. According to the author the results demonstrate that the Bayesian Model of Generalization provides for the most effective cognitive model for identifying the most similar corresponding concepts existing for a targeted socio-cultural community. In another presentation, Thierry Declerck, Hans-Ulrich Krieger and Dagmar Gromann present an ongoing work and propose an approach to automatic extraction of information from multilingual financial Web resources, to provide candidate terms for building ontology elements or instances of ontology concepts. The authors present a complementary approach to the direct localization/translation of ontology labels, by acquiring terminologies through the access and harvesting of multilingual Web presences of structured information providers in the field of finance, leading to both the detection of candidate terms in various multilingual sources in the financial domain that can be used not only as labels of ontology classes and properties but also for the possible generation of (multilingual) domain ontologies themselves. In the next paper, Manuel Silva, António Lucas Soares and Rute Costa claim that despite the availability of tools, resources and techniques aimed at the construction of ontological artifacts, developing a shared conceptualization of a given reality still raises questions about the principles and methods that support the initial phases of conceptualization. These questions become, according to the authors, more complex when the conceptualization occurs in a multilingual setting. To tackle these issues the authors present a collaborative platform – conceptME - where terminological and knowledge representation processes support domain experts throughout a conceptualization framework, allowing the inclusion of multilingual data as a way to promote knowledge sharing and enhance conceptualization and support a multilingual ontology specification. In another presentation Frieda Steurs and Hendrik J. Kockaert present us TermWise, a large project dealing with legal terminology and phraseology for the Belgian public services, i.e. the translation office of the ministry of justice, a project which aims at developing an advanced tool including expert knowledge in the algorithms that extract specialized language from textual data (legal documents) and whose outcome is a knowledge database including Dutch/French equivalents for legal concepts, enriched with the phraseology related to the terms under discussion. Finally, Deborah Grbac, Luca Losito, Andrea Sada and Paolo Sirito report on the preliminary results of a pilot project currently ongoing at UCSC Central Library, where they propose to adapt to subject librarians, employed in large and multilingual Academic Institutions, the model used by translators working within European Union Institutions. The authors are using User Experience (UX) Analysis in order to provide subject librarians with a visual support, by means of “ontology tables” depicting conceptual linking and connections of words with concepts presented according to their semantic and linguistic meaning. The organizers hope that the selection of papers presented here will be of interest to a broad audience, and will be a starting point for further discussion and cooperation.
Transient Spaces: unsettling boundaries and norms at the cultural event Noc Noc, Guimarães, Portugal
Resumo:
Cities are increasingly expected to be creative, inventive and to exhibit intense expressivity. In the past decades many cities have experienced growing pressure to produce and stage cultural events of different sorts and to develop new strategies that optimize competitive advantages, in order to promote themselves and to boost and sell their image. Often these actions have relied on heavy public investment and major private corporation sponsoring, but it is not always clear or measured how successful and reproductive these investments have been. In the context of strained public finances and profound economic crisis of European peripheral countries, events that emerge from local communities and have low budgets, which manage to create significant fluxes of visitors and visibility, assume an increased interest. In order to reflect and sketch possible answers, we look to an emerging body of literature concerning creative cities, and we focus on the organisation of a particular cultural event and its impact and assimilation into a medium size Portuguese city. This paper looks at the two editions (2011 and 2012) of one of such events – Noc Noc – organized by a local association in the city of Guimarães, Portugal. Inspired by similar events, Noc Noc is based on creating transient spaces of culture which are explored by artists and audiences, by transforming numerous homes into ephemeral convivial and playful social ‘public’ environments. The event is based on a number of cultural venues/homes scattered around the old and newer city, which allows for an informal urban exploration and an autonomous rambling and getting lost along streets. This strategy not only disrupts the cleavages between public and private space permitting for various transgressions, but it also disorders normative urban experiences and unsettles the dominant role of the city council as the culture patron of the large majority of events. Guimarães, an UNESCO World Heritage City was the European Capital of Culture in 2012, with a public investment of roughly 73 million euro. By interviewing a sample of people who have hosted these transitory art performances and exhibitions, sometimes doubling as artists, the events’ organizers and by experience both editions of the event, this paper illustrates how urban citizens’ engagement and motivations in a low budget cultural event can strengthen community ties. Furthermore, it also questions the advantages of large scale high budget events, and how this event may be seen as unconscious counter movement against a commodification of cultural events and everyday urban experience at large, engaging with the concepts of staging and authenticity.
Resumo:
This study aims to optimize the water quality monitoring of a polluted watercourse (Leça River, Portugal) through the principal component analysis (PCA) and cluster analysis (CA). These statistical methodologies were applied to physicochemical, bacteriological and ecotoxicological data (with the marine bacterium Vibrio fischeri and the green alga Chlorella vulgaris) obtained with the analysis of water samples monthly collected at seven monitoring sites and during five campaigns (February, May, June, August, and September 2006). The results of some variables were assigned to water quality classes according to national guidelines. Chemical and bacteriological quality data led to classify Leça River water quality as “bad” or “very bad”. PCA and CA identified monitoring sites with similar pollution pattern, giving to site 1 (located in the upstream stretch of the river) a distinct feature from all other sampling sites downstream. Ecotoxicity results corroborated this classification thus revealing differences in space and time. The present study includes not only physical, chemical and bacteriological but also ecotoxicological parameters, which broadens new perspectives in river water characterization. Moreover, the application of PCA and CA is very useful to optimize water quality monitoring networks, defining the minimum number of sites and their location. Thus, these tools can support appropriate management decisions.
Resumo:
Mobile devices are embedded systems with very limited capacities that need to be considered when developing a client-server application, mainly due to technical, ergonomic and economic implications to the mobile user. With the increasing popularity of mobile computing, many developers have faced problems due to low performance of devices. In this paper, we discuss how to optimize and create client-server applications for in wireless/mobile environments, presenting techniques to improve overall performance.
Resumo:
Mestrado em Engenharia Informática - Área de Especialização em Sistemas Gráficos e Multimédia
Resumo:
This article introduces schedulability analysis for global fixed priority scheduling with deferred preemption (gFPDS) for homogeneous multiprocessor systems. gFPDS is a superset of global fixed priority pre-emptive scheduling (gFPPS) and global fixed priority non-pre-emptive scheduling (gFPNS). We show how schedulability can be improved using gFPDS via appropriate choice of priority assignment and final non-pre-emptive region lengths, and provide algorithms which optimize schedulability in this way. Via an experimental evaluation we compare the performance of multiprocessor scheduling using global approaches: gFPDS, gFPPS, and gFPNS, and also partitioned approaches employing FPDS, FPPS, and FPNS on each processor.