892 resultados para Fault proness
Resumo:
Actualmente, a utilização de recursos energéticos renováveis é encarada como vital para se alcançar um desenvolvimento sustentável. Dentro destas, a energia eólica apresenta-se como uma das mais sustentáveis e, por isso, teve uma evolução exponencial nos últimos anos. No entanto, apesar da sua maturidade, esta tecnologia apresenta problemas e desafios. As turbinas eólicas apresentam uma elevada taxa de avarias em alguns componentes, nomeadamente a caixa de engrenagens, o gerador eléctrico e as pás. Os tempos de paragem associados às avarias e à sua reparação provocam grandes prejuízos. De modo a evitar as falhas e a permitir a redução dos custos durante o ciclo de vida das turbinas eólicas, existe a necessidade de optimizar as estratégias de manutenção, de forma a maximizar o retorno do investimento nos parques eólicos. Os aerogeradores mais recentes possuem sistemas de monitorização que permitem monitorizar todos os equipamentos constituintes da máquina, possibilitando um acompanhamento mais próximo do real estado de funcionamento dos equipamentos. A monitorização online permite que se reduza a possibilidade de acontecimento de uma falha grave. Este trabalho de investigação analisa as avarias associadas a um dos equipamentos mais importante das turbinas eólicas, a caixa de engrenagens, tendo sido identificadas as principais grandezas que podem ser utilizadas para a previsão de avarias. Este equipamento é crítico dado que origina um dos maiores tempos de indisponibilidade por falha. O resultado das análises efectuadas ao comportamento da caixa de engrenagens perante uma avaria demonstrou que é possível prevê-las. Esta informação é de extrema importância, pois permite um escalonamento eficiente da manutenção e a adopção das estratégias de reparação mais convenientes.
Resumo:
Many-core platforms are an emerging technology in the real-time embedded domain. These devices offer various options for power savings, cost reductions and contribute to the overall system flexibility, however, issues such as unpredictability, scalability and analysis pessimism are serious challenges to their integration into the aforementioned area. The focus of this work is on many-core platforms using a limited migrative model (LMM). LMM is an approach based on the fundamental concepts of the multi-kernel paradigm, which is a promising step towards scalable and predictable many-cores. In this work, we formulate the problem of real-time application mapping on a many-core platform using LMM, and propose a three-stage method to solve it. An extended version of the existing analysis is used to assure that derived mappings (i) guarantee the fulfilment of timing constraints posed on worst-case communication delays of individual applications, and (ii) provide an environment to perform load balancing for e.g. energy/thermal management, fault tolerance and/or performance reasons.
Resumo:
20th International Conference on Reliable Software Technologies - Ada-Europe 2015 (Ada-Europe 2015), Madrid, Spain.
Resumo:
OCEANS, 2001. MTS/IEEE Conference and Exhibition (Volume:2 )
Resumo:
Esta Tese de Mestrado foi realizada na empresa Pietec Cortiças S.A.. A empresa Pietec Cortiças S.A. é a unidade industrial responsável pela produção de rolhas técnicas de cortiça do Grupo Piedade. O objetivo desta tese prende-se com a melhoria do processo produtivo de uma das suas secções, a secção da Marcação. Esta secção é responsável pela marcação da superfície da rolha, pela aplicação do tratamento de superfície e pelo embalamento das rolhas. A otimização do processo da secção de Marcação, na qualidade de última secção do processo produtivo, permitirá à empresa obter vantagens competitivas. De forma a atingir o objetivo proposto, foi realizado um levantamento exaustivo do processo produtivo e das respetivas operações. Esta análise permitiu a identificação dos possíveis pontos de desperdício, a sua avaliação e a definição de possíveis melhorias que visam o aumento de produtividade e a redução do número de produtos não conformes. Uma vez identificados os pontos críticos do processo, procedeu-se à definição das ações de melhoria a implementar de forma a melhorar o processo produtivo. As ações tomadas assentam na filosofia Lean e nos seus princípios, utilizando-se algumas das ferramentas desta filosofia para concretizar os objetivos traçados. A ferramenta de análise Plan-Do-Check-Act (PDCA) foi a ferramenta base do projeto, acompanhando na elaboração do plano de ação, na implementação das ferramentas 5S e Single Minute Exchange of Die (SMED), na verificação dos resultados e no plano de manutenção das melhorias alcançadas. Após a implementação das medidas definidas no processo de marcação da superfície das rolhas, foi mensurada uma melhoria de 23 % no tempo médio de setup da máquina de marcação. Esta melhoria global foi alcançada através de intervenções no processo de vazamento do circuito da máquina de marcação, no procedimento de armazenamento dos moldes de marcação e na alteração dos mecanismos de ajuste da máquina de marcar e de orientar. No processo de embalamento das rolhas, as medidas implementadas produziram um aumento de 1,7 % no número de rolhas produzidas e uma redução do número de rolhas não conformes de 3,6 %. Os resultados obtidos no projeto demonstram que é possível continuar a melhorar o estado atual dos processos. Constatou-se ainda que, com a adoção de ferramentas de análise e de proposta de melhoria adequadas, é possível atuar sobre os processos e obter melhorias a curto prazo, sem que para isso seja necessário efetuar grandes investimentos.
Resumo:
Presented at INForum - Simpósio de Informática (INFORUM 2015). 7 to 8, Sep, 2015. Portugal.
Resumo:
The complexity of systems is considered an obstacle to the progress of the IT industry. Autonomic computing is presented as the alternative to cope with the growing complexity. It is a holistic approach, in which the systems are able to configure, heal, optimize, and protect by themselves. Web-based applications are an example of systems where the complexity is high. The number of components, their interoperability, and workload variations are factors that may lead to performance failures or unavailability scenarios. The occurrence of these scenarios affects the revenue and reputation of businesses that rely on these types of applications. In this article, we present a self-healing framework for Web-based applications (SHõWA). SHõWA is composed by several modules, which monitor the application, analyze the data to detect and pinpoint anomalies, and execute recovery actions autonomously. The monitoring is done by a small aspect-oriented programming agent. This agent does not require changes to the application source code and includes adaptive and selective algorithms to regulate the level of monitoring. The anomalies are detected and pinpointed by means of statistical correlation. The data analysis detects changes in the server response time and analyzes if those changes are correlated with the workload or are due to a performance anomaly. In the presence of per- formance anomalies, the data analysis pinpoints the anomaly. Upon the pinpointing of anomalies, SHõWA executes a recovery procedure. We also present a study about the detection and localization of anomalies, the accuracy of the data analysis, and the performance impact induced by SHõWA. Two benchmarking applications, exercised through dynamic workloads, and different types of anomaly were considered in the study. The results reveal that (1) the capacity of SHõWA to detect and pinpoint anomalies while the number of end users affected is low; (2) SHõWA was able to detect anomalies without raising any false alarm; and (3) SHõWA does not induce a significant performance overhead (throughput was affected in less than 1%, and the response time delay was no more than 2 milliseconds).
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Informática
Resumo:
Atualmente, as Tecnologias de Informação (TI) são cada vez mais vitais dentro das organizações. As TI são o motor de suporte do negócio. Para grande parte das organizações, o funcionamento e desenvolvimento das TI têm como base infraestruturas dedicadas (internas ou externas) denominadas por Centro de Dados (CD). Nestas infraestruturas estão concentrados os equipamentos de processamento e armazenamento de dados de uma organização, por isso, são e serão cada vez mais desafiadas relativamente a diversos fatores tais como a escalabilidade, disponibilidade, tolerância à falha, desempenho, recursos disponíveis ou disponibilizados, segurança, eficiência energética e inevitavelmente os custos associados. Com o aparecimento das tecnologias baseadas em computação em nuvem e virtualização, abrese todo um leque de novas formas de endereçar os desafios anteriormente descritos. Perante este novo paradigma, surgem novas oportunidades de consolidação dos CD que podem representar novos desafios para os gestores de CD. Por isso, é no mínimo irrealista para as organizações simplesmente eliminarem os CD ou transforma-los segundo os mais altos padrões de qualidade. As organizações devem otimizar os seus CD, contudo um projeto eficiente desta natureza, com capacidade para suportar as necessidades impostas pelo mercado, necessidades dos negócios e a velocidade da evolução tecnológica, exigem soluções complexas e dispendiosas tanto para a sua implementação como a sua gestão. É neste âmbito que surge o presente trabalho. Com o objetivo de estudar os CD inicia-se um estudo sobre esta temática, onde é detalhado o seu conceito, evolução histórica, a sua topologia, arquitetura e normas existentes que regem os mesmos. Posteriormente o estudo detalha algumas das principais tendências condicionadoras do futuro dos CD. Explorando o conhecimento teórico resultante do estudo anterior, desenvolve-se uma metodologia de avaliação dos CD baseado em critérios de decisão. O estudo culmina com uma análise sobre uma nova solução tecnológica e a avaliação de três possíveis cenários de implementação: a primeira baseada na manutenção do atual CD; a segunda baseada na implementação da nova solução em outro CD em regime de hosting externo; e finalmente a terceira baseada numa implementação em regime de IaaS.
Resumo:
A atual crise económica determinou um aumento significativo de casos de insolvência de pessoas singulares, uma vez que as famílias, para verem satisfeitas as suas necessidades, recorrem, por vezes em demasia, a instituições de crédito, o que leva ao seu sobreendividamento. Deste modo, o processo de insolvência pode ser o último recurso para as pessoas singulares resolverem a sua situação de incumprimento. Entre as medidas aplicáveis às pessoas singulares destaca-se a exoneração do passivo restante, prevista nos artigos 235.º a 248.º do CIRE. Esta solução dá aos devedores a possibilidade de se libertarem de algumas das suas dívidas com vista à sua reabilitação económica. É nisto que se traduz o princípio do fresh start. Este trabalho tem por objeto a insolvência de pessoas singulares, em especial a exoneração do passivo restante e o fundamento de indeferimento liminar do pedido de exoneração baseado na culpa do devedor na criação ou agravamento da sua situação de insolvência, constante do artigo 238º nº 1 al. e) do CIRE.
Resumo:
Dissertation to obtain the degree of Master in Electrical and Computer Engineering
Resumo:
RESUMO: A confiabilidade e qualidade dos resultados clínicos de um laboratório, estão dependentes da qualidade do equipamento onde estes são processados. A qualidade de um equipamento consiste em apresentar resultados com uma confiabilidade metrológica de acordo com os processos de medição realizados. Desta forma, os equipamentos de medição devem conter características metrológicas de acordo com os requisitos dos processos que estão inseridos, tais como: erro máximo, incerteza, resolução… Todos os equipamentos por muito bons que sejam, apresentam perdas das suas características metrológicas ao longo do tempo, o que se torna importante a determinação periódica das suas calibrações, manutenções e o seu respectivo ajuste. A periodicidade das calibrações, devem ser baseadas, em critérios bem estabelecidos de modo a evitar a ocorrência da não conformidade, devido às medições com os equipamentos fora das suas especificações, garantindo-se assim, a confiabilidade metrológica e o aumento da produtividade devido ao controlo dos processos, evitando-se desta forma qualquer tipo de avaria por parte destes. Os normativos de Qualidade e Certificação estabelecem como requisito a calibração dos equipamentos de medição em intervalos adequados, mas não definem claramente qual o intervalo adequado. O importante é gerir as etapas de calibração e manutenção de acordo com os equipamentos de modo a garantir que os resultados emitidos por estes sejam mantidos em condições confiáveis, dentro do período entre calibrações e manutenções, de modo a que nãoocorra uma condição de falha, e por conseguinte, medições com grande quantidade de erros.------------ ABSTRACT: The reliability and quality of the results of a clinical laboratory, are dependent on the quality of the equipment where they are processed. The quality of a product is to present results with a metrological reliability according to the measuring processes carried out. Thus, measuring equipment must contain metrological characteristics according to the requirements of the processes that are included, such as: maximum error, uncertainty, resolution ... All equipment for very good they are, show losses of its metrological characteristics over time, it becomes important to determine its periodic calibrations, maintenance and its adjustment. The frequency of calibrations should be based on well-established criteria in order to avoid the occurrence of non-compliance due to the measurements with the equipment beyond its specifications, thus ensuring the metrological reliability and increased productivity due to the control of processes, thus avoiding any kind of damage on the part thereof. The normative and Quality Certification as a requirement to establish calibration of measuring equipment at appropriate intervals, but not clearly stipulate the proper range. It is important to manage the steps of calibration and maintenance equipment according to ensure that the results emitted by these conditions are maintained in trusted within the period between calibrations and maintenance, sothat there occurs a fault condition, and therefore, large amount of measurements with errors.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Informática
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Informática
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Informática