988 resultados para industrial cleaning solutions
Resumo:
Advances in technology have produced more and more intricate industrial systems, such as nuclear power plants, chemical centers and petroleum platforms. Such complex plants exhibit multiple interactions among smaller units and human operators, rising potentially disastrous failure, which can propagate across subsystem boundaries. This paper analyzes industrial accident data-series in the perspective of statistical physics and dynamical systems. Global data is collected from the Emergency Events Database (EM-DAT) during the time period from year 1903 up to 2012. The statistical distributions of the number of fatalities caused by industrial accidents reveal Power Law (PL) behavior. We analyze the evolution of the PL parameters over time and observe a remarkable increment in the PL exponent during the last years. PL behavior allows prediction by extrapolation over a wide range of scales. In a complementary line of thought, we compare the data using appropriate indices and use different visualization techniques to correlate and to extract relationships among industrial accident events. This study contributes to better understand the complexity of modern industrial accidents and their ruling principles.
Resumo:
Complex industrial plants exhibit multiple interactions among smaller parts and with human operators. Failure in one part can propagate across subsystem boundaries causing a serious disaster. This paper analyzes the industrial accident data series in the perspective of dynamical systems. First, we process real world data and show that the statistics of the number of fatalities reveal features that are well described by power law (PL) distributions. For early years, the data reveal double PL behavior, while, for more recent time periods, a single PL fits better into the experimental data. Second, we analyze the entropy of the data series statistics over time. Third, we use the Kullback–Leibler divergence to compare the empirical data and multidimensional scaling (MDS) techniques for data analysis and visualization. Entropy-based analysis is adopted to assess complexity, having the advantage of yielding a single parameter to express relationships between the data. The classical and the generalized (fractional) entropy and Kullback–Leibler divergence are used. The generalized measures allow a clear identification of patterns embedded in the data.
Resumo:
In this article, we evaluate electrocardiographic (ECG) alterations among urban workers from a mechanical-metallurgical industry in São Paulo, Brazil. In a cross-sectional survey carried out in 1980, we found 2.2% positive serological testing for Trypanosoma cruzi infection among 27,081 workers. A comparison between seropositive workers and a random sample of seronegative workers frequency-matched by age and occupation revealed that seropositive workers had a much lower educational level, and that a higher proportion of seropositive workers had ECG abnormalities (42.7%) when compared to those negative for T. cruzi infection (19.8%). The high frequency of ECG abnormalities suggests the need to provide medical assistance to these workers, without any kind of discrimination and to bring in a form of management that would decrease this dangerous risk to the workers and people around them.
Resumo:
This article presents a framework to an Industrial Engineering and Management Science course from School of Management and Industrial Studies using Autonomous Ground Vehicles (AGV) to supply materials to a production line as an experimental setup for the students to acquire knowledge in the production robotics area. The students must be capable to understand and put into good use several concepts that will be of utmost importance in their professional life such as critical decisions regarding the study, development and implementation of a production line. The main focus is a production line using AGVs, where the students are required to address several topics such as: sensors actuators, controllers and an high level management and optimization software. The presented framework brings to the robotics teaching community methodologies that allow students from different backgrounds, that normally don’t experiment with the robotics concepts in practice due to the big gap between theory and practice, to go straight to ”making” robotics. Our aim was to suppress the minimum start point level thus allowing any student to fully experience robotics with little background knowledge.
Resumo:
A thesis submitted for the degree of Ph. D. in Physics
Resumo:
This paper presents the TEC4SEA research infrastructure created in Portugal to support research, development, and validation of marine technologies. It is a multidisciplinary open platform, capable of supporting research, development, and test of marine robotics, telecommunications, and sensing technologies for monitoring and operating in the ocean environment. Due to the installed research facilities and its privileged geographic location, it allows fast access to deep sea, and can support multidisciplinary research, enabling full validation and evaluation of technological solutions designed for the ocean environment. It is a vertically integrated infrastructure, in the sense that it possesses a set of skills and resources which range from pure conceptual research to field deployment missions, with strong industrial and logistic capacities in the middle tier of prototype production. TEC4SEA is open to the entire scientific and enterprise community, with a free access policy for researchers affiliated with the research units that ensure its maintenance and sustainability. The paper describes the infrastructure in detail, and discusses associated research programs, providing a strategic vision for deep sea research initiatives, within the context of both the Portuguese National Ocean Strategy and European Strategy frameworks.
Resumo:
O solo é um recurso multifuncional e vital para a humanidade, apresentando funções ecológicas, técnico-industriais, socioeconómicas e culturais, estabelecendo um vasto capital natural insubstituível. Face à sua taxa de degradação potencialmente rápida que, devido ao crescente desenvolvimento económico e incremento da população mundial, tem vindo a aumentar nas últimas décadas, o solo é, atualmente, um recurso finito e limitado. Devido a esta problemática, o presente documento visa abordar a progressiva preocupação sobre as questões geoambientais e toda a investigação que as envolvem, avaliando o modo como os contaminantes se dispersam pelo solo nas diferentes fases do mesmo (fases sólida, líquida e gasosa). A parte experimental centrou-se na análise da adsorção do benzeno, a partir da determinação das isotérmicas de adsorção. Para tal, foram previamente preparados reatores com calcário, sendo alguns deles previamente contaminados com um biocombustível, biodiesel, a uma concentração constante. Este processo foi monitorizado com base na evolução temporal da concentração na fase gasosa, através da cromatografia gasosa. De entre os objetivos, procurou-se analisar a distribuição dos contaminantes pelas fases constituintes do solo, ajustar os dados experimentais obtidos os modelos matemáticos de Langmuir, Freundlich e Polinomial, e verificar e discutir as soluções mais adequadas.
Resumo:
Dissertação apresentada para cumprimento dos requisitos necessários à obtenção do grau de Mestre em Museologia
Resumo:
Esta dissertação descreve o levantamento da gestão de uma unidade fabril no âmbito do engarrafamento de águas, para a implementação de um Sistema de Gestão Ambiental (SGA) recorrendo á Norma NP EN ISO 14001:2012 tendo como objetivo proporcionar a melhoria contínua dos processos implementados na empresa bem como todos os benefícios que este referencial pressupõe. Foi realizada, numa primeira fase, uma auditoria diagnóstico com uma visita á fabrica no âmbito da implementação da ISO 14001, e posteriormente realizado todo o trabalho de aplicação ao referencial. Este trabalho consistiu a abordagem a todos os requisitos da norma ISO 14001 com principal foco na fase de Planeamento de um SGA, procurando-se responder essencialmente ao requisito 4.3 da referida norma. Procedeu-se á identificação das atividades da empresa (entradas e saídas), dos aspetos ambientais associados (respetiva significância) e levantamento dos requisitos legais aplicáveis (obrigações). Os restantes requisitos foram abordados e fez-se uma sugestão para o seu cumprimento, para além de que muitos já se encontram em cumprimento por compatibilidade com a norma ISO 9001 da qual a empresa já se encontra certificada. Esta dissertação pretende discutir e apresentar propostas para a implementação do SGA, possíveis vantagens daí decorrentes e as barreiras a ultrapassar (aspetos ambientais significativos) de maneiras a por em prática os requisitos do referencial normativo que venha a ser adotado. Foi realizada uma revisão bibliográfica destas temáticas e, ainda que estas medidas propostas não tenham sido implementadas, assim que implementadas esperam-se ganhos na economia de recursos como também outros benefícios descritos ao longo da dissertação que permita, com implementação do SGA não só enquanto estratégia, ser inovadora e competitiva.
Resumo:
The Rural Postman Problem (RPP) is a particular Arc Routing Problem (ARP) which consists of determining a minimum cost circuit on a graph so that a given subset of required edges is traversed. The RPP is an NP-hard problem with significant real-life applications. This paper introduces an original approach based on Memetic Algorithms - the MARP algorithm - to solve the RPP and, also deals with an interesting Industrial Application, which focuses on the path optimization for component cutting operations. Memetic Algorithms are a class of Metaheuristics which may be seen as a population strategy that involves cooperation and competition processes between population elements and integrates “social knowledge”, using a local search procedure. The MARP algorithm is tested with different groups of instances and the results are compared with those gathered from other publications. MARP is also used in the context of various real-life applications.
Resumo:
No âmbito da investigação operacional o problema de empacotamento de contentores é conhecido por procurar definir uma configuração de carga, de forma a otimizar a utilização de um espaço disponível para efetuar o empacotamento. Este problema pode ser apresentado em diversas formas, formas estas que variam em função das características de cada empacotamento. Estas características podem ser: o tipo de carga que se pretende carregar (homogénea ou heterogénea), a possibilidade de a carga poder sofrer rotações em todas as suas dimensões ou apenas em algumas, o lucro que está associado a cada caixa carregada ou restrições inerentes ao contentor como por exemplo dimensões. O interesse pelo estudo de problemas de empacotamento de contentores tem vindo a receber cada vez mais ênfase por várias razões, uma delas é o interesse financeiro dado que o transporte é uma prática que representa custos, sendo importante diminuir estes custos aproveitando o volume do contentor da melhor forma. Outra preocupação que motiva o estudo deste problema prende-se com fatores ambientes, onde se procura racionalizar os recursos naturais estando esta também ligada a questões financeiras. Na literatura podem ser encontradas varias propostas para solucionar este problema, cada uma destas dirigidas a uma variante do problema, estas propostas podem ser determinísticas ou não determinísticas onde utilizam heurísticas ou metaheurísticas. O estudo realizado nesta dissertação descreve algumas destas propostas, nomeadamente as metaheurísticas que são utilizadas na resolução deste problema. O trabalho aqui apresentado traz também uma nova metaheurísticas, mais precisamente um algoritmo genético que terá como objetivo, apresentar uma configuração de carga para um problema de empacotamento de um contentor. O algoritmo genético tem como objetivo a resolução do seguinte problema: empacotar várias caixas retangulares com diversos tamanhos num contentor. Este problema é conhecido como Bin-Packing. A novidade que este algoritmo genético vai introduzir nas diversas soluções apresentadas até à data, é uma nova forma de criar padrões iniciais, ou seja, é utilizada a heurística HSSI (Heurística de Suavização de Superfícies Irregulares) que tem como objetivo criar uma população inicial de forma a otimizar o algoritmo genético. A heurística HSSI tenta resolver problemas de empacotamento simulando, o comportamento da maioria das pessoas ao fazer este processo na vida real, contudo, tem um campo de busca reduzido entre as soluções possíveis e será então utilizado um algoritmo genético para ampliar este campo de busca e explorar novas soluções. No final pretende-se obter um software onde será possível configurar um dado problema de empacotamento de um contentor e obter, a solução do mesmo através do algoritmo genético. Assim sendo, o estudo realizado tem como principal objetivo contribuir com pesquisas e conclusões, sobre este problema e trazer uma nova proposta de solução para o problema de empacotamento de contentores.
Resumo:
O consumo de energia de forma irracional acarreta desvantagens a nível económico para o consumidor e problemas ambientais para toda a sociedade, como a escassez de recursos naturais e o aumento da poluição. Neste contexto, a otimização energética na indústria, e em particular no setor das borrachas, é indispensável de forma a utilizar racionalmente a energia e assim contribuir para a viabilidade das empresas. Este trabalho, efetuado na Flexocol - Fábrica de Artefactos de Borracha, Lda., teve como principal objetivo efetuar um levantamento energético à unidade fabril e propor alternativas que permitissem a redução do consumo de energia elétrica. Foi ainda realizado um estudo sobre a possibilidade de substituir o n-hexano, solvente utilizado na limpeza dos moldes, por um solvente mais adequado. O levantamento energético efetuado permitiu identificar o consumo das utilidades existentes na Flexocol. Esta empresa consome gasóleo e energia elétrica, sendo esta última, a forma de energia mais consumida correspondendo a 96%. O consumo global de energia é cerca 151 tep anuais, inferior a 500 tep/ano, ou seja é considerada uma empresa não consumidora intensiva de energia. Com base neste levantamento determinou-se os indicadores de consumo específico de energia e da intensidade carbónica, 2,73 tep/ ton e 1684,5 kg CO2/tep. A análise do consumo de energia elétrica dos diferentes equipamentos permitiu verificar que o setor que mais consome energia elétrica é a Vulcanização com 45,8%, seguido do setor da Mistura e Serralharia com 27,5% e 26,7%, respetivamente. O sistema de iluminação nos vários setores foi também alvo de estudo e permitiu identificar a Vulcanização como o setor com mais consumo e o da Mistura como o que menos consome. O estudo das variáveis anteriormente referidas permitiu apresentar algumas propostas de melhoria. Uma das propostas analisada foi implementação de condensadores no quadro parcial de forma a diminuir a energia reativa. Com esta medida prevê-se uma poupança de 5631 €/ano e um retorno de investimento de 0,045 anos. Foi também analisada relativamente à iluminação a possibilidade de instalação de balastros eletrónicos que conduziria a uma poupança na energia elétrica de cerca 7072 kWh/ano, mas com um retorno de investimento desfavorável. Por último estudou-se o solvente alternativo ao n-hexano. A acetona foi o solvente proposto uma vez que tem as propriedades indicadas para o fim a que se destina.
Resumo:
O crescimento dos sistemas de informação e a sua utilização massiva criou uma nova realidade no acesso a experiências remotas que se encontram geograficamente distribuídas. Nestes últimos tempos, a temática dos laboratórios remotos apareceu nos mais diversos campos como o do ensino ou o de sistemas industriais de controlo e monitorização. Como o acesso aos laboratórios é efectuado através de um meio permissivo como é o caso da Internet, a informação pode estar à mercê de qualquer atacante. Assim, é necessário garantir a segurança do acesso, de forma a criar condições para que não se verifique a adulteração dos valores obtidos, bem como a existência de acessos não permitidos. Os mecanismos de segurança adoptados devem ter em consideração a necessidade de autenticação e autorização, sendo estes pontos críticos no que respeita à segurança, pois estes laboratórios podem estar a controlar equipamentos sensíveis e dispendiosos, podendo até eventualmente comprometer em certos casos o controlo e a monotorização de sistemas industriais. Este trabalho teve como objectivo a análise da segurança em redes, tendo sido realizado um estudo sobre os vários conceitos e mecanismos de segurança necessários para garantir a segurança nas comunicações entre laboratórios remotos. Dele resultam as três soluções apresentadas de comunicação segura para laboratórios remotos distribuídos geograficamente, recorrendo às tecnologias IPSec, OpenVPN e PPTP. De forma a minimizar custos, toda a implementação foi assente em software de código aberto e na utilização de um computador de baixo custo. No que respeita à criação das VPNs, estas foram configuradas de modo a permitir obter os resultados pretendidos na criação de uma ligação segura para laboratórios remotos. O pfSense mostrou-se a escolha acertada visto que suporta nativamente quaisquer das tecnologias que foram estudadas e implementadas, sem necessidade de usar recursos físicos muito caros, permitindo o uso de tecnologias de código aberto sem comprometer a segurança no funcionamento das soluções que suportam a segurança nas comunicações dos laboratórios remotos.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia e Gestão Industrial
Resumo:
A evolução tecnológica atingiu um ritmo que muitas empresas têm dificuldade de acompanhar, existem diversas opções no mercado, para um mesmo objectivo, e tornasse determinante o processo de tomada de decisão sobre qual tecnologia adoptar para determinado objectivo. O alvo de estudo desta dissertação de mestrado, é uma das tecnologias, que últimamente tem ganho especial relevo, quando aplicada ao ambiente industrial, o RFID (Radio Frequency Identification Devices). Na presente dissertação, foi efectuado um levantamento do estado da arte, na área da identificação automática, com especial foco no RFID. Esta revisão bibliográfica teve como principal objectivo perceber quais as tecnologias concorrentes do RFID, e explorar quais as suas principais características tecnológicas e funcionais, bem como as vantagens no uso desta tecnologia de forma a sustentar a implementação de um sistema protótipo de gestão de armazém. O contributo final da dissertação, consiste numa aplicação que tem como principal objectvo simular os fluxos de infomação resultantes dos fluxos fisícos de materiais em ambiente de armazém. Foi também tido em conta no desenvolvimento da aplicação, a demonstração de algumas das mais valias que esta tecnologia pode trazer para a gestão de armazéns. Para implementação da aplicação destaca-se a utilização da arquitectura MVC (Model-view-controlador), em ambiente web, para permitir uma descentalização do software no ambiente indoor do armazém.