91 resultados para confiabilidade
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
O desenvolvimento tecnológico, aliado à grande competitividade do mercado em escala mundial, tem como conseqüências diretas a elevação dos padrões de consumo e o aumento da diversidade de opções de compra por parte dos consumidores. Desta forma as empresas têm se empenhado em desenvolver sistemas de gestão robustos, porém flexíveis, que lhes proporcionem produzir bens de melhor qualidade, com diferenciais em relação aos concorrentes. A confiabilidade de um produto apresenta, sob diferentes aspectos, impacto na satisfação do consumidor, resultando como fator fundamental na decisão de compra. Além disso, as empresas têm procurado desenvolver mecanismos que propiciem criar um canal de relacionamento mais amplo junto aos seus consumidores, utilizando-se dos programas de fidelidade que têm como uma das suas principais ferramentas a extensão da garantia de produtos. Para implementar um programa de extensão de garantia, a empresa deve estar produzindo com alto nível de confiabilidade e estar em acompanhamento contínuo do desempenho destes produtos no campo. Este acompanhamento pode ser feito a partir dos dados de falha dos produtos em garantia, que possibilitam estabelecer indicadores de performance e avaliar custos relacionados às não-conformidades observadas. Este trabalho propõe, a partir de um estudo de caso, realizar a modelagem para análise da confiabilidade de um produto refrigerador freezer, com o objetivo de identificar a distribuição das falhas e estimar a confiabilidade do produto para um período de 2 (dois) anos de uso, possibilitando assim à empresa estabelecer os custos adicionais com a extensão da garantia do produto que atualmente é de 1 (um) ano. O estudo foi delineado em duas alternativas de modelagem, sendo a primeira através da adequação, estimação e simulação do modelo de distribuição de falhas e a segunda por meio da análise bayesiana de confiabilidade envolvendo o uso de distribuições a priori e a posteriori. Os resultados observados demonstram que apesar das técnicas serem distintas, as modelagens convergiram para estimativas similares e qualitativamente coerentes com os pressupostos estabelecidos pela empresa pesquisada.
Resumo:
Esta dissertação apresenta uma metodologia de retroalimentação do ciclo de desenvolvimento de produtos, com ênfase na fase de projeto, a partir de dados obtidos em estudos de confiabilidade. A metodologia é proposta com base no escopo da norma QS-9000, norma esta que vem sendo utilizada por fornecedores e sub-fornecedores da indústria automobilística no mundo inteiro. Um estudo de caso permitiu que a metodologia fosse implementada em uma empresa certificada na norma. São aplicadas retroalimentações em ferramentas como Desdobramento da Função Qualidade (QFD), Análise dos Modos e Efeitos de Falha de Produto (DFMEA) e de Processo (PFMEA). Os resultados obtidos demonstraram que a metodologia de retroalimentação proposta é uma ferramenta útil na maturação de um produto, através da utilização dos dados de falhas em campo, bem como no momento do desenvolvimento de um produto novo, que irá suceder o atual, através da utilização da voz do cliente e dos dados de falha em campo de forma ordenada.
Resumo:
o setor de manutenção, em geral, é visto como uma das áreas mais propícias à implementação de melhorias na qualidade da gestão e dos serviços. Nesse campo, a Manutenção Centrada em Confiabilidade (MCC) tem apresentado bons resultados. A MCC é uma metodologia que permite determinar racionalmente o que deve ser feito para assegurar que um equipamento continue a cumprir suas funções em seu contexto operacional, determinando tarefas de manutenção, necessárias para manter o sistema funcionando, ao invés de restaurar o equipamento a uma condição ideal. A metodologia de implementação da MCC descrita neste trabalho contempla as seguintes etapas: (i) preparação do estudo; (ii) seleção do sistema e subsistemas funcionais; (iii) análise das funções e falhas funcionais; (iv) seleção dos itens críticos do subsistema; (v) coleta e análise de informações; (vi) análise de modos de falha e efeitos; (vii) seleção das tarefas de manutenção preventiva; e (viii) elaboração do plano de manutenção. o objetivo deste trabalho é consolidar as definições e etapas para implementação da MCC no setor de preparação de polpa da fábrica de pasta químico-mecânica (FPQM) da Celulose Irani S.A. Inicialmente, foi feita uma abordagem sobre os métodos de manutenção, discorrendo em específico sobre aqueles voltados à MCC. Em seguida, são apresentadas as definições, as principais ferramentas utilizadas pela MCC e a sistemática de implementação da MCC na visão de vários autores. Posteriormente, foi realizado um estudo de caso em que foram determinadas as tarefas de manutenção para manter as funções dos itens fisicos da FPQM. Nas etapas de implementação, são geradas informações sobre os subsistemas e são determinadas as funções, as falhas funcionais, os modos de falha, a causa e o efeito da falha e se faz a descrição do realizado em cada etapa, esclarecendo e ampliando a compreensão do leitor, diante da MCC. Os resultados obtidos demonstram que a metodologia da MCC é um processo contínuo e sua aplicação deve ser reavaliada conforme a experiência operacional for acumulada, e que, apesar da ausência de informações históricas sobre falhas de itens fisicos, a MCC permite definir planos de manutenção e aprimorar o conhecimento acerca do sistema em estudo.
Resumo:
Neste trabalho é dado ênfase à inclusão das incertezas na avaliação do comportamento estrutural, objetivando uma melhor representação das características do sistema e uma quantificação do significado destas incertezas no projeto. São feitas comparações entre as técnicas clássicas existentes de análise de confiabilidade, tais como FORM, Simulação Direta Monte Carlo (MC) e Simulação Monte Carlo com Amostragem por Importância Adaptativa (MCIS), e os métodos aproximados da Superfície de Resposta( RS) e de Redes Neurais Artificiais(ANN). Quando possível, as comparações são feitas salientando- se as vantagens e inconvenientes do uso de uma ou de outra técnica em problemas com complexidades crescentes. São analisadas desde formulações com funções de estado limite explícitas até formulações implícitas com variabilidade espacial de carregamento e propriedades dos materiais, incluindo campos estocásticos. É tratado, em especial, o problema da análise da confiabilidade de estruturas de concreto armado incluindo o efeito da variabilidade espacial de suas propriedades. Para tanto é proposto um modelo de elementos finitos para a representação do concreto armado que incorpora as principais características observadas neste material. Também foi desenvolvido um modelo para a geração de campos estocásticos multidimensionais não Gaussianos para as propriedades do material e que é independente da malha de elementos finitos, assim como implementadas técnicas para aceleração das avaliações estruturais presentes em qualquer das técnicas empregadas. Para o tratamento da confiabilidade através da técnica da Superfície de Resposta, o algoritmo desenvolvido por Rajashekhar et al(1993) foi implementado. Já para o tratamento através de Redes Neurais Artificias, foram desenvolvidos alguns códigos para a simulação de redes percéptron multicamada e redes com função de base radial e então implementados no algoritmo de avaliação de confiabilidade desenvolvido por Shao et al(1997). Em geral, observou-se que as técnicas de simulação tem desempenho bastante baixo em problemas mais complexos, sobressaindo-se a técnica de primeira ordem FORM e as técnicas aproximadas da Superfície de Resposta e de Redes Neurais Artificiais, embora com precisão prejudicada devido às aproximações presentes.
Resumo:
Empresas de manufatura alocam uma grande quantidade de recursos no projeto de produtos confiáveis. Quando adequadamente projetados, tais produtos apresentam um número mínimo de falhas operacionais durante seu período de garantia e, de forma geral, durante sua vida útil. Falhas incorridas durante o período de garantia do produto implicam em custos indesejáveis. Assim, a incidência dessas falhas, bem como sua natureza, são normalmente registradas pelas empresas, na busca de informações que permitam aprimorar o projeto de produtos. Modelos de confiabilidade apropriados para estudos de engenharia são freqüentemente desenvolvidos a partir da análise de informações de desempenho em campo dos produtos de interesse. Esta dissertação propõe e exemplifica uma metodologia de análise de confiabilidade de produtos manufaturados, utilizando as informações disponíveis de volume produzido em um período de tempo e dados de tempos-até-falha obtidos da utilização da garantia do produto analisado. Como aplicação, foi realizada a modelagem da distribuição de confiabilidade de um modelo de aparelho condicionador de ar individual. Além da definição do modelo de distribuição da confiabilidade do produto e seus parâmetros, foram identificados os componentes críticos do sistema, os quais apresentam maior impacto sobre a confiabilidade do produto, quando ocorre melhoria de suas distribuições individuais de confiabilidade O trabalho apresenta, também, uma introdução sobre a teoria e princípio de funcionamento de unidades condicionadoras de ar, bem como uma revisão sobre os conceitos teóricos de confiabilidade, estimativas de parâmetros de modelos de distribuições, métodos de modelagens de distribuições e avaliação de confiabilidade utilizados na metodologia proposta.
Resumo:
Este trabalho é um estudo aplicado da implementação e utilização do gerenciamento do crescimento da confiabilidade no setor de máquinas agrícolas na empresa John Deere Brasil SA. O uso de técnicas e softwares de confiabilidade para monitorar o desenvolvimento do projeto da colheitadeira de grãos – modelo da série 1100 – foi fundamental para determinar o momento exato de introduzir o produto no mercado. A análise das falhas dos produtos existentes, sugestões dos clientes e informações da área de suporte e serviços, serviram como base para a introdução de diversas melhorias para o novo modelo de colheitadeira. As principais atividades referentes à confiabilidade foram, a previsão da confiabilidade, testes e planejamento do crescimento da confiabilidade, modelagem do crescimento da confiabilidade e a análise dos dados obtidos com os testes de campo. O objetivo da implementação das ferramentas do gerenciamento do crescimento da confiabilidade foi administrar as informações dos eventos de testes de campo, para que as falhas verificadas durante o período de testes fossem reprojetadas e as ações corretivas implementadas e verificadas suas melhorias.
Resumo:
As empresas, cada vez mais, buscam a redução de custo, para serem mais competitivas. A necessidade de aumentar a vida útil dos equipamentos, através de técnicas apropriadas é prioritário para manutenção dos ativos. Neste trabalho estudou-se o método para implantação da análise e monitoramento da vibração em equipamentos rotativos, com base nos conceitos da manutenção centrada em confiabilidade, usando técnicas preditiva e pró-ativa de manutenção pela condição, com foco na tarefa. Primeiramente foi analisado o comportamento dos componentes em relação ao processo de falha, como as falhas atuam, os tipos de modos de falha, falhas funcionais e seus efeitos. Após foram analisados e selecionados os critérios de níveis de vibração para os equipamentos rotativos em função da potência e rotação. Também, foi determinado em que condições os espectros seriam analisados em função da amplitude e freqüência de rotação. Então, foram preparados os locais para coletas dos dados de vibração. Assim, os níveis de vibração global foram coletados em função das amplitudes, em cada posição específica do equipamento em seu plano. Isto faz com que, análise dos níveis globais de vibração e o diagnóstico através do espectro e a forma de onda, permitissem encontrar a causa do problema. Finalmente, são apresentados os resultados em níveis de amplitude, espectro após ações, a correção da causa do problema e os tipos de defeitos de tendência de falhas e a implementação do método.
Resumo:
Esta dissertação aborda a estimativa das probabilidades de falha de um produto ao longo do período de garantia. As fontes de dados para esta estimativa são a quantidade de produtos vendidos e o número de falhas detectadas em cada mês. Duas metodologias não-paramétricas para esta análise são apresentadas e validadas. A metodologia de análise de dados completos requer o conhecimento da data de venda e de falha de cada produto. A metodologia de análise de dados incompletos requer apenas os totais de vendas e falhas em cada mês ao longo do período de garantia. Para os dois casos, é ainda implementada a suavização das probabilidades de falha estimadas, utilizando distribuições paramétricas Weibull ou Lognormal. As duas técnicas são implementadas em planilha eletrônica e aplicadas na análise de dados simulados. O desempenho de cada metodologia é avaliado com dados de diferentes características, resultando em recomendações para escolha e aplicação da metodologia mais adequada em cada caso
Resumo:
O modelo de objetos apresenta-se como um modelo promissor para o desenvolvimento de software tolerante a falhas em virtude de características inerentes ao próprio modelo de objetos, tais como abstração de dados, encapsulamento, herança e reutilização de objetos (componentes). O uso de técnicas orientadas a objetos facilita o controle da complexidade do sistema porque promove uma melhor estruturação de seus componentes e também permite que componentes já validados sejam reutilizados [LIS96]. Técnicas básicas para tolerância a falhas em software baseiam-se na diversidade de projeto e de implementação de componentes considerados críticos. Os componentes diversitários são gerenciados através de alguma técnica que tenha por objetivo assegurar o fornecimento do serviço solicitado, como, por exemplo, a conhecida técnica de blocos de recuperação. Reflexão Computacional é a capacidade que um sistema tem de fazer computações para se auto analisar. Ela é obtida quando o programa pára sua execução por um período de tempo para fazer computações sobre si próprio; analisa seu estado, se o processamento está correto, se pode prosseguir com a execução e atingir o objetivo satisfatoriamente; se não precisa mudar de estratégia ou algoritmo de execução, fazendo, ainda, processamentos necessários para o sucesso da execução. Um sistema de programação distribuída consiste basicamente em vários aplicativos executados em diferentes computadores, os quais realizam troca de mensagens para solucionar um problema comum. A comunicação entre os computadores é realizada através da rede que os interliga. As Redes que controlam sistemas críticos são normalmente de pequena escala pois redes de grandes dimensões podem apresentar atrasos e baixa confiabilidade. Portanto, a abordagem aqui proposta consiste em utilizar, em um ambiente distribuído, uma arquitetura reflexiva aliada a técnicas do domínio da tolerância a falhas para promover a separação entre as atividades de controle, salvamento, recuperação, distribuição e validação de componentes e as funcionalidades executadas pelo próprio componente, a fim de que falhas não venham a prejudicar a disponibilidade, confiabilidade e clareza de determinadas computações. A proposta apóia-se num estudo de caso, implementado na linguagem de programação Java, com seus protocolos de reflexão computacional e de comunicação.
Resumo:
Um dos modos de avaliar a confiabilidade de um produto é verificando o comportamento das falhas em testes de uso contínuo. Contudo, essa informação não permite saber em que data a falha ocorrerá. Para resolver esse impasse abordamos na presente dissertação a modelagem dos tempos de falha ao longo do calendário. A modelagem desses tempos permite uma melhor administração do sistema de garantia e assistência técnica, além de possibilitar a empresa estimar e monitorar a confiabilidade do produto. Para proceder com a modelagem, é preciso, inicialmente, conhecer a distribuição de três variáveis: o tempo de vida do produto, em horas de uso contínuo; o tempo de uso do produto, em horas por dia; e o intervalo de tempo entre a manufatura e a venda, em dias. Conhecendo o comportamento dessa variáveis duas alternativas de solução são apresentadas: (a) Modelagem via simulação de Monte Carlo e (b) Modelagem através de solução matemática fechada. São discutidos os casos em que há um ou vários grupos de clientes que utilizam o produto.
Resumo:
Dados altimétricos do satélite TOPEX/POSEIDON obtidos durante 1993 e 1994 foram utilizados para estudar a dinâmica oceanográfica na região oeste do oceano Atlântico Sul, entre as latitudes de 15°S e 50°S e longitudes de 30°W e 65°W. Simultaneamente, dados hidrográficos (históricos e sinópticos) e imagens termais do sensor AVHRR/NOAA foram utilizados com o objetivo de proporcionar uma comparação com os resultados da altimetria. Características da topografia dinâmica superficial, da variabilidade e anomalias da topografia dinâmica são apresentadas. Imprecisões dos modelos do geóide marinho restringiram o estudo dos padrões da topografia dinâmica supercial e das correntes geostrósficas superficiais, a comprimentos de onda espaciais superiores a 2400 Km. A variabilidade temporal da topografia dinâmica demonstrou um padrão altamente energético na região da Confluência Brasil-Malvinas durante o período. Diferenças sazonais foram observadas com os maiores valores de variabilidade nos meses de inverno e primavera. As anomalias (resíduos) da topografia dinâmica foram utilizadas no estudo de fenômenos transientes, onde um vórtice foi acompanhado acompanhado ao longo do tempo, e em conjunto com imagens AVHRR/NOAA. Feições térmicas superficiais foram confrontadas com anomalias altimétricas de trajetórias específicas, contemporâneas às imagens, apresentando ótima concordância e confirmando a excelente potencialidade do uso conjunto destes dois tipos de dados. Finalmente, a técnica da topografia dinâmica composta (combinação de dados altimétricos e climatológicos) foi utilizada para reconstruir a topografia dinâmica total a partir das anomalias altimétricas, sem a contaminação das imprecisões dos modelos do geóide. O ciclo escolhido corresponde ao mesmo período de um cruzeiro hidrográfico, proporcionando uma comparação entre topografias dinâmicas (e velocidades geostróficas superficiais) estimadas pelos dois conjuntos de dados. A concordãncia entre os dois resultados foi bastante satisfatória, indicado a possibilidade de se gerar estimativas da circulação geostrófica superficial, com boa confiabilidade, apenas com dados do sátelite e dados hidrográficos climatológicos. Concluíndo, o TOPEX/POSEIDON apresenta-se como uma excelente ferramente para o estudo da dinâmica oceanográfica no Atlântico Sul, proporcionando uma análise quasi-sinóptica de qualidade e, principalmente, aumentando o conhecimento desta região.
Resumo:
Geralmente, as populações, incluindo aí os setores produtivos, planejam suas atividades pelo conhecimento antecipado das variações tanto da temperatura quanto da precipitação pluvial baseados nos ciclos anuais e sazonais conhecidos. Os benefícios, confiabilidade e utilização das previsões climáticas têm sido objeto de análise e discussão na comunidade científica mundial. O desenvolvimento e aplicação dessas previsões para determinadas partes de áreas extensas, atende, de forma mais satisfatória, aos anseios dos setores produtivos e a sociedade como um todo. O objetivo principal desse trabalho foi identificar regiões dos oceanos Atlântico e Pacífico, cuja Temperatura da Superfície do Mar (TSM) possa ser utilizada como preditor potencial em modelos estatísticos de previsão climática de temperaturas máxima e mínima em regiões homogêneas do Estado do Rio Grande do Sul. Este estudo foi desenvolvido com dados de temperaturas máxima e mínima de 40 estações meteorológicas, do Instituto Nacional de Meteorologia e, da Fundação Estadual de Pesquisas Agropecuárias para o período de 1913 a 1998 e dados de TSM em pontos de grade para o período de 1950 a 1998 do National Center for Environmental Prediction. Num tratamento preliminar dos dados, as séries tiveram suas falhas preenchidas utilizando um método de preenchimento, aqui chamado, de “método das correlações”. Com as séries completas, aplicou-se métodos de agrupamento, determinando 4 regiões homogêneas de temperaturas máxima e mínima para o Estado. Foi feito um estudo climatológico dessas regiões e determinadas as relações das temperaturas médias máxima e mínima, de cada uma com TSM dos Oceanos na grade definida. As regiões determinadas representaram bem a fisiografia do Estado e as regiões preditoras apresentaram correlações significativas tanto com a temperatura máxima, quanto com a mínima. Os meses com maior número de preditores, tanto para as temperatura máxima quanto para mínima, foi agosto e o de menor, julho. Correlações diferentes para regiões homogêneas distintas, justificou a utilização da regionalização neste trabalho.
Resumo:
Neste trabalho abordam-se as questões relevantes de uma avaliação analítica de estruturas acabadas, apresentando-se os aspectos fundamentais quanto à inspeção e verificação da sua segurança. Primeiramente, apresenta-se os métodos de avaliação, enfatizando-se as vantagens e restrições do emprego de cada método. Quanto à inspeção, são apresentados e discutidos os principais ítens que devem ser verificados nas estruturas acabadas. :t:nfasemaior é dada à inspeção da resistência do concreto, discutindo-se aspectos de sua variação nas ~struturas e apresentando-se os métodos de ensaio empregados. É proposta uma metodologia para a inspeção do concreto, racionalizando-se o emprego dos métodos não-destrutivos. Por fim, destaca-se os aspectos teóricos da verificação da segurança nas estruturas acabadas e as principais diferenças quanto à introdução da segurança nos projetos de novas estruturas.
Resumo:
Replicação de objetos é usada para garantir uma maior disponibilidade de recursos em um sistema distribuído. Porém, com a replicação, surgem problemas como o controle da consistência das réplicas e onde estas réplicas devem estar posicionadas. A consistência é garantida por um protocolo de consistência de réplicas. Para facilitar a implementação dos protocolos de controle de réplicas, pode-se utilizar mecanismos de comunicação de grupo como suporte para a replicação. Outro problema importante que surge com a replicação é o posicionamento das réplicas. A carga de processamento em um sistema distribuído muda continuamente e num determinado instante pode ser necessário mudar a distribuição atual das réplicas pela adição de novas réplicas, remoção de réplicas desnecessárias ou pela mudança de posicionamento das réplicas. Um sistema de gerenciamento de réplicas pode realizar esta tarefa. Este trabalho apresenta o sistema RPM – Replica Placement Manager – responsável por fornecer ao serviço de gerenciamento de réplicas uma lista ordenada de nodos potencialmente ideais, num determinado momento do processamento, para receber uma réplica de um objeto. Esta lista é criada pelo RPM, considerando um pequeno conjunto de variáveis estáticas e dinâmicas, facilmente obtidas nos nodos do sistema distribuído.