966 resultados para Separators (Machines)
Resumo:
This paper reports on a first step towards the implementation of a framework for remote experimentation of electric machines ? the RemoteLabs platform. This project was focused on the development of two main modules: the user Web-based and the electric machines interfaces. The Web application provides the user with a front-end and interacts with the back-end ? the user and experiment persistent data. The electric machines interface is implemented as a distributed client server application where the clients, launched by the Web application, interact with the server modules located in platforms physically connected the electric machines drives. Users can register and authenticate, schedule, specify and run experiments and obtain results in the form of CSV, XML and PDF files. These functionalities were successfully tested with real data, but still without including the electric machines. This inclusion is part of another project scheduled to start soon.
Resumo:
In order to correctly assess the biaxial fatigue material properties one must experimentally test different load conditions and stress levels. With the rise of new in-plane biaxial fatigue testing machines, using smaller and more efficient electrical motors, instead of the conventional hydraulic machines, it is necessary to reduce the specimen size and to ensure that the specimen geometry is appropriate for the load capacity installed. At the present time there are no standard specimen's geometries and the indications on literature how to design an efficient test specimen are insufficient. The main goal of this paper is to present the methodology on how to obtain an optimal cruciform specimen geometry, with thickness reduction in the gauge area, appropriate for fatigue crack initiation, as a function of the base material sheet thickness used to build the specimen. The geometry is optimized for maximum stress using several parameters, ensuring that in the gauge area the stress distributions on the loading directions are uniform and maximum with two limit phase shift loading conditions (delta = 0 degrees and (delta = 180 degrees). Therefore the fatigue damage will always initiate on the center of the specimen, avoiding failure outside this region. Using the Renard Series of preferred numbers for the base material sheet thickness as a reference, the reaming geometry parameters are optimized using a derivative-free methodology, called direct multi search (DMS) method. The final optimal geometry as a function of the base material sheet thickness is proposed, as a guide line for cruciform specimens design, and as a possible contribution for a future standard on in-plane biaxial fatigue tests
Resumo:
Trabalho final de Mestrado para obtenção do grau de Mestre em Engenharia de Redes de Comunicação e Multimédia
Resumo:
Mestrado em Engenharia Mecânica - Construções Mecânicas
Resumo:
Mestrado em Engenharia Mecânica – Especialização Gestão Industrial
Resumo:
Ontologies have proliferated in the last years, essentially justified by the need of achieving a consensus in the multiple representations of reality inside computers, and therefore the accomplishment of interoperability between machines and systems. Ontologies provide an explicit conceptualization that describes the semantics of the data. Crowdsourcing innovation intermediaries are organizations that mediate the communication and relationship between companies that aspire to solve some problem or to take advantage of any business opportunity with a crowd that is prone to give ideas based on their knowledge, experience and wisdom, taking advantage of web 2.0 tools. Various ontologies have emerged, but at the best of our knowledge, there isn’t any ontology that represents the entire process of intermediation of crowdsourcing innovation. In this paper we present an ontology roadmap for developing crowdsourcing innovation ontology of the intermediation process. Over the years, several authors have proposed some distinct methodologies, by different proposals of combining practices, activities, languages, according to the project they were involved in. We start making a literature review on ontology building, and analyse and compare ontologies that propose the development from scratch with the ones that propose reusing other ontologies. We also review enterprise and innovation ontologies known in literature. Finally, are presented the criteria for selecting the methodology and the roadmap for building crowdsourcing innovation intermediary ontology.
Resumo:
Arguably, the most difficult task in text classification is to choose an appropriate set of features that allows machine learning algorithms to provide accurate classification. Most state-of-the-art techniques for this task involve careful feature engineering and a pre-processing stage, which may be too expensive in the emerging context of massive collections of electronic texts. In this paper, we propose efficient methods for text classification based on information-theoretic dissimilarity measures, which are used to define dissimilarity-based representations. These methods dispense with any feature design or engineering, by mapping texts into a feature space using universal dissimilarity measures; in this space, classical classifiers (e.g. nearest neighbor or support vector machines) can then be used. The reported experimental evaluation of the proposed methods, on sentiment polarity analysis and authorship attribution problems, reveals that it approximates, sometimes even outperforms previous state-of-the-art techniques, despite being much simpler, in the sense that they do not require any text pre-processing or feature engineering.
Resumo:
Ao longo dos últimos anos tem-se assistido a um forte desenvolvimento e crescimento do número de parques eólicos instalados no mundo, o que leva a que seja necessário o incremento de ferramentas que permitam aperfeiçoar os sistemas de monitorização e controlo atualmente existentes. Por outro lado, não se deve deixar de ter em conta os custos elevados de operação e manutenção dos sistemas eólicos bem como o facto de os aerogeradores estarem localizadas em locais remotos ou offshore, o que faz aumentar os custos associados à sua exploração. A dissertação nasce da intenção clara do mercado em apostar na supervisão e previsão de avarias graves, de forma a minimizar os encargos subjacentes. Este trabalho de dissertação visa a utilização de redes neuronais para criar uma ferramenta informática de previsão de avarias em caixas de engrenagens em aerogeradores. As redes neuronais são ferramentas informáticas ideais para trabalhar com muita informação, sendo que a sua aplicação depende da qualidade e quantidade dos dados. Para tal irá ser efetuado um estudo em um parque eólico, no qual se analisará as principais avarias detetadas bem como as grandezas que deverão integrar a construção desta rede neuronal. Assim sendo, a informação relativa às diversas máquinas existentes num parque, é de enorme importância para a definição e otimização da rede neuronal a construir. Os resultados obtidos neste trabalho com a aplicação de redes neuronais para a previsão de avarias em caixas de engrenagens do parque eólico de estudo, provam que é possível realizar uma deteção da avaria bem como uma constatação de que a reparação possa ter sido bem efetuada ou mal sucedida, podendo assim ser ajustados os programas de manutenção a efetuar e uma verificação das ações de reparação para sua validação.
Resumo:
A Internet, conforme a conhecemos, foi projetada com base na pilha de protocolos TCP/IP, que foi desenvolvida nos anos 60 e 70 utilizando um paradigma centrado nos endereços individuais de cada máquina (denominado host-centric). Este paradigma foi extremamente bem-sucedido em interligar máquinas através de encaminhamento baseado no endereço IP. Estudos recentes demonstram que, parte significativa do tráfego atual da Internet centra-se na transferência de conteúdos, em vez das tradicionais aplicações de rede, conforme foi originalmente concebido. Surgiram então novos modelos de comunicação, entre eles, protocolos de rede ponto-a-ponto, onde cada máquina da rede pode efetuar distribuição de conteúdo (denominadas de redes peer-to-peer), para melhorar a distribuição e a troca de conteúdos na Internet. Por conseguinte, nos últimos anos o paradigma host-centric começou a ser posto em causa e apareceu uma nova abordagem de Redes Centradas na Informação (ICN - information-centric networking). Tendo em conta que a Internet, hoje em dia, basicamente é uma rede de transferência de conteúdos e informações, porque não centrar a sua evolução neste sentido, ao invés de comunicações host-to-host? O paradigma de Rede Centrada no Conteúdo (CCN - Content Centric Networking) simplifica a solução de determinados problemas de segurança relacionados com a arquitetura TCP/IP e é uma das principais propostas da nova abordagem de Redes Centradas na Informação. Um dos principais problemas do modelo TCP/IP é a proteção do conteúdo. Atualmente, para garantirmos a autenticidade e a integridade dos dados partilhados na rede, é necessário garantir a segurança do repositório e do caminho que os dados devem percorrer até ao seu destino final. No entanto, a contínua ineficácia perante os ataques de negação de serviço praticados na Internet, sugere a necessidade de que seja a própria infraestrutura da rede a fornecer mecanismos para os mitigar. Um dos principais pilares do paradigma de comunicação da CCN é focalizar-se no próprio conteúdo e não na sua localização física. Desde o seu aparecimento em 2009 e como consequência da evolução e adaptação a sua designação mudou atualmente para Redes de Conteúdos com Nome (NNC – Named Network Content). Nesta dissertação, efetuaremos um estudo de uma visão geral da arquitetura CCN, apresentando as suas principais características, quais os componentes que a compõem e como os seus mecanismos mitigam os tradicionais problemas de comunicação e de segurança. Serão efetuadas experiências com o CCNx, que é um protótipo composto por um conjunto de funcionalidades e ferramentas, que possibilitam a implementação deste paradigma. O objetivo é analisar criticamente algumas das propostas existentes, determinar oportunidades, desafios e perspectivas para investigação futura.
Resumo:
More than ever, there is an increase of the number of decision support methods and computer aided diagnostic systems applied to various areas of medicine. In breast cancer research, many works have been done in order to reduce false-positives when used as a double reading method. In this study, we aimed to present a set of data mining techniques that were applied to approach a decision support system in the area of breast cancer diagnosis. This method is geared to assist clinical practice in identifying mammographic findings such as microcalcifications, masses and even normal tissues, in order to avoid misdiagnosis. In this work a reliable database was used, with 410 images from about 115 patients, containing previous reviews performed by radiologists as microcalcifications, masses and also normal tissue findings. Throughout this work, two feature extraction techniques were used: the gray level co-occurrence matrix and the gray level run length matrix. For classification purposes, we considered various scenarios according to different distinct patterns of injuries and several classifiers in order to distinguish the best performance in each case described. The many classifiers used were Naïve Bayes, Support Vector Machines, k-nearest Neighbors and Decision Trees (J48 and Random Forests). The results in distinguishing mammographic findings revealed great percentages of PPV and very good accuracy values. Furthermore, it also presented other related results of classification of breast density and BI-RADS® scale. The best predictive method found for all tested groups was the Random Forest classifier, and the best performance has been achieved through the distinction of microcalcifications. The conclusions based on the several tested scenarios represent a new perspective in breast cancer diagnosis using data mining techniques.
Resumo:
Um dos princípios da Gestão é: “If you cannot measure it, you cannot improve it.” In The Economist – 26.Dez.2008, idea of 19th century English physicist Lord Kelvin. Embora seja uma afirmação aplicável à gestão económica, também pode ser utilizada no domínio da gestão da energia. Este trabalho surge da necessidade sentida pela empresa Continental - Industria Têxtil do Ave, S.A. em efetuar uma atualização dos seus standards de produção, minimizando os seus consumos de eletricidade e gás natural. Foi necessário efetuar o levantamento dos consumos em diversas máquinas e equipamentos industriais, caracterizando e analisando os consumos ao longo de todo o processo produtivo. Para o tratamento de dados recolhidos foi desenvolvida uma folha de cálculo em MS Office ExcelTM com metodologia adequada ao equipamento em análise, que dará apoio ao decisor para a identificação dos aspetos que melhorem o processo produtivo e garantam uma elevada eficiência energética. Porém, não se enquadra no âmbito do Plano Nacional de Racionalização de Energia, sendo uma “auditoria energética” ao processo produtivo. Recentemente, a empresa, tem vindo a utilizar equipamentos eletrónicos que permitem otimizar o funcionamento mecânico dos equipamentos e das potências instaladas dos transformadores, na tentativa de racionalizar o consumo da energia elétrica. Outros equipamentos como, conversores de frequência para controlo de motores, balastros eletrónicos que substituem os convencionais balastros ferromagnéticos das lâmpadas de descarga fluorescente, têm sido incluídos ao nível das instalações elétricas, sendo gradualmente substituída a eletromecânica pela eletrónica. Este tipo de soluções vem deteriorar as formas de onda da corrente e da tensão do sistema pela introdução de distorções harmónicas. Faz ainda parte deste trabalho, um estudo de uma solução que melhore, simultaneamente o fator de potência e reduza as harmónicas presentes num posto de transformação localizado no seio da fábrica. Esta solução, permite melhorar a qualidade da energia elétrica e as condições de continuidade de serviço, garantindo melhores condições de exploração e incrementando a produtividade da empresa.
Resumo:
Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade No Lisboa para obtenção de grau de Mestre em Engenharia de Informática
Resumo:
Guilhotinas são máquinas robustas, de corte rectilíneo, normalmente associadas a equipamentos de baixo custo, devido à pequena quantidade de dispositivos tecnológicos incorporados. No entanto, esta situação pode ser alterada através da criatividade dos projetistas deste tipo de equipamento. Analisando algumas operações específicas, pode-se observar que algumas ferramentas, quando associadas ao equipamento, podem aumentar substancialmente a produtividade do processo de corte e a qualidade do produto final. Em relação ao processo de corte de chapas finas de metal, pode-se observar que na fase final de corte, o peso do material a cortar é suspenso por uma pequena porção de material que ainda não foi sujeita ao corte. Este facto leva a uma deformação plástica nesta última zona, causando problemas de qualidade no produto final, que não ficará completamente plano. Este trabalho foi desenvolvido em torno deste problema, estudando a melhor solução para desenvolver uma nova ferramenta, capaz de evitar a falta de nivelamento da placa, após corte. Um novo equipamento foi concebido, capaz de ser facilmente incorporado na guilhotina, permitindo o acompanhamento da inclinação da lâmina durante a operação de corte. O sistema é totalmente automatizado, sendo operado por uma única instrução de corte dada pelo operador da máquina. Este sistema permite à empresa fabricante aumentar o valor agregado de cada máquina, oferecendo aos clientes soluções avançadas, contribuindo desta forma para a sustentabilidade do negócio da empresa.
Resumo:
Com um mercado automóvel cada vez mais competitivo e com os construtores automóveis à procura de atingir os zero defeitos nos seus produtos, a Bosch Car Multimédia Portugal S.A, fabricante de sistemas multimédia para o mercado automóvel, tem como objetivo a qualidade perfeita dos seus produtos. Tal perfeição exige processos de fabrico cada vez mais evoluídos e com melhores sistemas de auxílio à montagem. Nesse sentido, a incorporação de sistemas de visão artificial para verificação da montagem correta dos componentes em sistemas multimédia tem vindo a crescer largamente. Os sistemas de inspeção visual da Cognex tornaram-se o standard da Bosch para a verifi-cação da montagem de componentes por serem sistemas bastante completos, fáceis de con-figurar e com um suporte técnico bastante completo. Estes sistemas têm vindo a ser inte-grados em diversas máquinas (postos) de montagem e nunca foi desenvolvida uma ferra-menta normalizada para integração destes sistemas com as máquinas. A ideia principal deste projeto passou por desenvolver um sistema (uma aplicação informá-tica) que permita controlar os indicadores de qualidade destes sistemas de visão, garantir o seguimento dos produtos montados e, ao mesmo tempo, efetuar cópias de segurança de todo o sistema para utilização em caso de avaria ou de troca de equipamento. Tal sistema foi desenvolvido recorrendo à programação de uma Dynamic Link Library (DLL), através da linguagem VisualBasic.NET, que permite às aplicações dos equipamen-tos (máquinas) da Bosch Car Multimédia comunicarem de uma forma universal e transpa-rente com os sistemas de inspeção visual da marca Cognex. Os objetivos a que o autor se propôs no desenvolvimento deste sistema foram na sua maioria alcançados e o projeto encontra-se atualmente implementado e em execução nas linhas de produção da Bosch Car Multimédia.
Resumo:
Harnessing idle PCs CPU cycles, storage space and other resources of networked computers to collaborative are mainly fixated on for all major grid computing research projects. Most of the university computers labs are occupied with the high puissant desktop PC nowadays. It is plausible to notice that most of the time machines are lying idle or wasting their computing power without utilizing in felicitous ways. However, for intricate quandaries and for analyzing astronomically immense amounts of data, sizably voluminous computational resources are required. For such quandaries, one may run the analysis algorithms in very puissant and expensive computers, which reduces the number of users that can afford such data analysis tasks. Instead of utilizing single expensive machines, distributed computing systems, offers the possibility of utilizing a set of much less expensive machines to do the same task. BOINC and Condor projects have been prosperously utilized for solving authentic scientific research works around the world at a low cost. In this work the main goal is to explore both distributed computing to implement, Condor and BOINC, and utilize their potency to harness the ideal PCs resources for the academic researchers to utilize in their research work. In this thesis, Data mining tasks have been performed in implementation of several machine learning algorithms on the distributed computing environment.