13 resultados para detecção de falhas

em Instituto Politécnico do Porto, Portugal


Relevância:

60.00% 60.00%

Publicador:

Resumo:

A crescente complexidade dos sistemas electrónicos associada a um desenvolvimento nas tecnologias de encapsulamento levou à miniaturização dos circuitos integrados, provocando dificuldades e limitações no diagnóstico e detecção de falhas, diminuindo drasticamente a aplicabilidade dos equipamentos ICT. Como forma de lidar com este problema surgiu a infra-estrutura Boundary Scan descrita na norma IEEE1149.1 “Test Access Port and Boundary-Scan Architecture”, aprovada em 1990. Sendo esta solução tecnicamente viável e interessante economicamente para o diagnóstico de defeitos, efectua também outras aplicações. O SVF surgiu do desejo de incutir e fazer com que os fornecedores independentes incluíssem a norma IEEE 1149.1, é desenvolvido num formato ASCII, com o objectivo de enviar sinais, aguardar pela sua resposta, segundo a máscara de dados baseada na norma IEEE1149.1. Actualmente a incorporação do Boundary Scan nos circuitos integrados está em grande expansão e consequentemente usufrui de uma forte implementação no mercado. Neste contexto o objectivo da dissertação é o desenvolvimento de um controlador boundary scan que implemente uma interface com o PC e possibilite o controlo e monitorização da aplicação de teste ao PCB. A arquitectura do controlador desenvolvido contém um módulo de Memória de entrada, um Controlador TAP e uma Memória de saída. A implementação do controlador foi feita através da utilização de uma FPGA, é um dispositivo lógico reconfiguráveis constituído por blocos lógicos e por uma rede de interligações, ambos configuráveis, que permitem ao utilizador implementar as mais variadas funções digitais. A utilização de uma FPGA tem a vantagem de permitir a versatilidade do controlador, facilidade na alteração do seu código e possibilidade de inserir mais controladores dentro da FPGA. Foi desenvolvido o protocolo de comunicação e sincronização entre os vários módulos, permitindo o controlo e monitorização dos estímulos enviados e recebidos ao PCB, executados automaticamente através do software do Controlador TAP e de acordo com a norma IEEE 1149.1. A solução proposta foi validada por simulação utilizando o simulador da Xilinx. Foram analisados todos os sinais que constituem o controlador e verificado o correcto funcionamento de todos os seus módulos. Esta solução executa todas as sequências pretendidas e necessárias (envio de estímulos) à realização dos testes ao PCB. Recebe e armazena os dados obtidos, enviando-os posteriormente para a memória de saída. A execução do trabalho permitiu concluir que os projectos de componentes electrónicos tenderão a ser descritos num nível de abstracção mais elevado, recorrendo cada vez mais ao uso de linguagens de hardware, no qual o VHDL é uma excelente ferramenta de programação. O controlador desenvolvido será uma ferramenta bastante útil e versátil para o teste de PCBs e outras funcionalidades disponibilizadas pelas infra-estruturas BS.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A evolução tecnológica, com particular incidência nas tecnologias de informação, e a necessidade de uma integração cada vez mais profunda do sector da manutenção na gestão estratégica global da empresa, contribuíram para o aparecimento dos sistemas de e-maintenance. Por outro lado, os conceitos associados à manutenção deverão estar cada vez mais associados à manutenção remota. Assim, o desenvolvimento de plataformas de e-maintenance, entendidas como a agregação de software e hardware e outras tecnologias integradas, permitiram implementar serviços, que foram determinantes para a evolução deste conceito. Nesta comunicação apresenta-se uma plataforma de e-maintenance aplicada a um sistema automatizado de pesagem de viaturas na indústria cimenteira. O sistema é baseado na monitorização constante da degradação dos componentes críticos que, através de um sistema de alertas, permite antecipar as falhas notificando, atempadamente, a equipe de operadores específicos. A aplicação foi desenvolvida na Framework SLV Cement da empresa Cachapuz. Possuindo vários módulos de gestão da manutenção esta plataforma permite definir e controlar todo o fluxo de informação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mestrado em Engenharia Electrotécnica e de Computadores

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A instalação de sistemas de videovigilância, no interior ou exterior, em locais como aeroportos, centros comerciais, escritórios, edifícios estatais, bases militares ou casas privadas tem o intuito de auxiliar na tarefa de monitorização do local contra eventuais intrusos. Com estes sistemas é possível realizar a detecção e o seguimento das pessoas que se encontram no ambiente local, tornando a monitorização mais eficiente. Neste contexto, as imagens típicas (imagem natural e imagem infravermelha) são utilizadas para extrair informação dos objectos detectados e que irão ser seguidos. Contudo, as imagens convencionais são afectadas por condições ambientais adversas como o nível de luminosidade existente no local (luzes muito fortes ou escuridão total), a presença de chuva, de nevoeiro ou de fumo que dificultam a tarefa de monitorização das pessoas. Deste modo, tornou‐se necessário realizar estudos e apresentar soluções que aumentem a eficácia dos sistemas de videovigilância quando sujeitos a condições ambientais adversas, ou seja, em ambientes não controlados, sendo uma das soluções a utilização de imagens termográficas nos sistemas de videovigilância. Neste documento são apresentadas algumas das características das câmaras e imagens termográficas, assim como uma caracterização de cenários de vigilância. Em seguida, são apresentados resultados provenientes de um algoritmo que permite realizar a segmentação de pessoas utilizando imagens termográficas. O maior foco desta dissertação foi na análise dos modelos de descrição (Histograma de Cor, HOG, SIFT, SURF) para determinar o desempenho dos modelos em três casos: distinguir entre uma pessoa e um carro; distinguir entre duas pessoas distintas e determinar que é a mesma pessoa ao longo de uma sequência. De uma forma sucinta pretendeu‐se, com este estudo, contribuir para uma melhoria dos algoritmos de detecção e seguimento de objectos em sequências dedeo de imagens termográficas. No final, através de uma análise dos resultados provenientes dos modelos de descrição, serão retiradas conclusões que servirão de indicação sobre qual o modelo que melhor permite discriminar entre objectos nas imagens termográficas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A segurança de pessoas e bens é um aspecto fundamental na qualidade de vida das pessoas. Os sistemas automáticos de segurança em geral e os sistemas automáticos de detecção de Monóxido de Carbono (CO) em particular, visam assegurar a protecção das pessoas em locais cuja qualidade atmosférica as possa por em perigo. O Monóxido de Carbono é um gás inflamável, que se mistura facilmente no ar ambiente, muito perigoso devido à sua elevada toxicidade e que sendo inodoro, incolor e insípido, não permite que os ocupantes das instalações tenham consciência de estar expostas a uma atmosfera susceptível de lhes provocar intoxicações e, até, mesmo a morte. O Monóxido de Carbono, que constitui a maior parte da poluição do ar, é resultado, essencialmente, da combustão incompleta de combustíveis fósseis. O Monóxido de Carbono forma com a hemoglobina do sangue, um composto mais estável do que hemoglobina e o oxigénio, podendo levar à morte por asfixia. Concentrações abaixo de 400 ppm (parte por milhão – medida de concentração) no ar causam dores de cabeça e acima deste valor são potencialmente mortais. O presente artigo aborda, em geral, a temática da detecção de monóxido de carbono, no que se refere aos aspectos regulamentares, técnicas e tecnológicos da mesma, que possam servir as pessoas em geral e os projectistas e instaladores em particular.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Durante milhares de anos o fogo foi considerado um fenómeno da natureza, sendo olhado como um mistério, provocando medo, superstição e adoração. O domínio do fogo por parte do homem permitiu a utilização do mesmo para aquecimento, cozinhar e mesmo para sua protecção. Contudo, o fogo, grande elemento de evolução do homem, é também, em potencial, um dos seus maiores inimigos. Muitos são os fogos florestais e urbanos, que ocorrem diariamente, provocando mortes e avultados prejuízos materiais. As causas principais dos incêndios são a deficiência nas canalizações eléctricas, a má utilização de equipamentos eléctricos, nomeadamente ferros, fogões, fornos e aquecedores eléctricos, bem como a negligência na utilização do fogo. Os Sistemas Automáticos de Detecção de Incêndio (SADI) são hoje encarados como fazendo (quase) obrigatoriamente parte dos sistemas aplicados no sector da habitação, serviços, comércio e indústria.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O motor assíncrono de indução é, de facto, a máquina actualmente preferida para a grande maioria dos accionamentos, graças à sua fiabilidade, robustez e baixo custo. Dado que ocupa um lugar preponderante no processo produtivo têm‐se desenvolvido diversos métodos de detecção de avarias que permitem diagnosticar qualquer tipo de defeito e quantificar o seu grau de severidade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mestrado em Engenharia Electrotécnica e de Computadores.Área de Especialização de Sistemas Autónomos

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lição a que se refere a alínea b) do nº 10 do art.º 3º da Lei 7/2010 de 13 de Maio, no âmbito da prestação das Provas Públicas de avaliação da sua competência pedagógica e técnico-científica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este documento descreve um modelo de tolerância a falhas para sistemas de tempo-real distribuídos. A sugestão deste modelo tem como propósito a apresentação de uma solu-ção fiável, flexível e adaptável às necessidades dos sistemas de tempo-real distribuídos. A tolerância a falhas é um aspeto extremamente importante na construção de sistemas de tempo-real e a sua aplicação traz inúmeros benefícios. Um design orientado para a to-lerância a falhas contribui para um melhor desempenho do sistema através do melhora-mento de aspetos chave como a segurança, a confiabilidade e a disponibilidade dos sis-temas. O trabalho desenvolvido centra-se na prevenção, deteção e tolerância a falhas de tipo ló-gicas (software) e físicas (hardware) e assenta numa arquitetura maioritariamente basea-da no tempo, conjugada com técnicas de redundância. O modelo preocupa-se com a efi-ciência e os custos de execução. Para isso utilizam-se também técnicas tradicionais de to-lerância a falhas, como a redundância e a migração, no sentido de não prejudicar o tempo de execução do serviço, ou seja, diminuindo o tempo de recuperação das réplicas, em ca-so de ocorrência de falhas. Neste trabalho são propostas heurísticas de baixa complexida-de para tempo-de-execução, a fim de se determinar para onde replicar os componentes que constituem o software de tempo-real e de negociá-los num mecanismo de coordena-ção por licitações. Este trabalho adapta e estende alguns algoritmos que fornecem solu-ções ainda que interrompidos. Estes algoritmos são referidos em trabalhos de investiga-ção relacionados, e são utilizados para formação de coligações entre nós coadjuvantes. O modelo proposto colmata as falhas através de técnicas de replicação ativa, tanto virtual como física, com blocos de execução concorrentes. Tenta-se melhorar ou manter a sua qualidade produzida, praticamente sem introduzir overhead de informação significativo no sistema. O modelo certifica-se que as máquinas escolhidas, para as quais os agentes migrarão, melhoram iterativamente os níveis de qualidade de serviço fornecida aos com-ponentes, em função das disponibilidades das respetivas máquinas. Caso a nova configu-ração de qualidade seja rentável para a qualidade geral do serviço, é feito um esforço no sentido de receber novos componentes em detrimento da qualidade dos já hospedados localmente. Os nós que cooperam na coligação maximizam o número de execuções para-lelas entre componentes paralelos que compõem o serviço, com o intuito de reduzir atra-sos de execução. O desenvolvimento desta tese conduziu ao modelo proposto e aos resultados apresenta-dos e foi genuinamente suportado por levantamentos bibliográficos de trabalhos de in-vestigação e desenvolvimento, literaturas e preliminares matemáticos. O trabalho tem também como base uma lista de referências bibliográficas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As empresas nacionais deparam-se com a necessidade de responder ao mercado com uma grande variedade de produtos, pequenas séries e prazos de entrega reduzidos. A competitividade das empresas num mercado global depende assim da sua eficiência, da sua flexibilidade, da qualidade dos seus produtos e de custos reduzidos. Para se atingirem estes objetivos é necessário desenvolverem-se estratégias e planos de ação que envolvem os equipamentos produtivos, incluindo: a criação de novos equipamentos complexos e mais fiáveis, alteração dos equipamentos existentes modernizando-os de forma a responderem às necessidades atuais e a aumentar a sua disponibilidade e produtividade; e implementação de políticas de manutenção mais assertiva e focada no objetivo de “zero avarias”, como é o caso da manutenção preditiva. Neste contexto, o objetivo principal deste trabalho consiste na previsão do instante temporal ótimo da manutenção de um equipamento industrial – um refinador da fábrica de Mangualde da empresa Sonae Industria, que se encontra em funcionamento contínuo 24 horas por dia, 365 dias por ano. Para o efeito são utilizadas medidas de sensores que monitorizam continuamente o estado do refinador. A principal operação de manutenção deste equipamento é a substituição de dois discos metálicos do seu principal componente – o desfibrador. Consequentemente, o sensor do refinador analisado com maior detalhe é o sensor que mede a distância entre os dois discos do desfibrador. Os modelos ARIMA consistem numa abordagem estatística avançada para previsão de séries temporais. Baseados na descrição da autocorrelação dos dados, estes modelos descrevem uma série temporal como função dos seus valores passados. Neste trabalho, a metodologia ARIMA é utilizada para determinar um modelo que efetua uma previsão dos valores futuros do sensor que mede a distância entre os dois discos do desfibrador, determinando-se assim o momento ótimo da sua substituição e evitando paragens forçadas de produção por ocorrência de uma falha por desgaste dos discos. Os resultados obtidos neste trabalho constituem uma contribuição científica importante para a área da manutenção preditiva e deteção de falhas em equipamentos industriais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta uma nova metodologia para se comparar com trabalhos anteriores realizados por Scalassara (2009) e santos (2011), para o diagnóstico de patologias da laringe por meio da análise da voz. Nos trabalhos foram utilizados as Entropias shannon, Rényi e suas Entropias relativas para se obter uma classificação a partir do sinal de voz. desta maneira detecta-se a pessoa está doente e distingue-se entre duas patologias, nódulos nas pregas vocais ou o edema Reinke. Neste estudo é utilizada a entropia de Tsaillis, com o objetivo de se avaliar um melhor método de avaliação para o mesmo problema. o aperfeiçoamento desta técnica de diagnóstico é uma interessante alternativa às práticas atuais, sendo a principal diferença não consistir num exame invasivo e desta forma desconfortável para o paciente. Os resultados obtidos foram satisfatórios e foi possível determinar com precisão sinais saudáveis de sinais com as duas patologias contempladas pelo estudo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesta dissertação é apresentado um estudo dos sistemas de processamento automático de imagem em contexto de um problema relacionado com a individualização de neurónios em imagens da nematoda C. elegans durante estudos relacionados com a doença de Parkinson. Apresenta-se uma breve introdução à anatomia do verme, uma introdução à doença de Parkinson e uso do C. elegans em estudos relacionados e também é feita a análise de artigos em contexto de processamento de imagem para contextualizar a situação atual de soluções para o problema de extração de características e regiões específicas. Neste projeto é desenvolvida uma pipeline com o auxilio do software CellProfiler para procurar uma resposta para o problema em questão.