33 resultados para Confiabilidade
Resumo:
O planejamento implantodôntico exige precisão e confiabilidade. A prototipagem rápida oferece a possibilidade de transferir o planejamento para o campo operatório, sendo este um importante aliado no tratamento cirúrgico. O presente estudo tem por objetivo avaliar a precisão de guias cirúrgicos obtidos através de tomografia computadorizada, planejamento em software para implantodontia (Implantviwer – Anne Solutions ltda.) e prototipagem rápida, avaliando a angulação e a posição horizontal dos implantes e ainda comparar guias com apoio ósseo e guias com apoio gengival. Foram selecionadas cinco mandíbulas humanas secas, que foram fixadas a um crânio e realizadas as tomografias computadorizadas, o planejamento dos implantes e os guias confeccionados apartir de prototipagem. Após a instalação de vinte implantes foram realizadas novas tomografias e comparação das medidas referentes a angulação e posicionamento horizontal dos implantes através da sobreposição das imagens pré e pós operatórias. Tais resultados foram submetidos a análise estatística pelo teste T para amostras dependentes e análise de variância de Friedman com índice de significância de 95%. Observou-se uma discrepância média de angulação de 2,60º (DP = 3,20º) e de 0.40 mm (DP = 0,51 mm) para o posicionamento horizontal nos guias com apoio sobre gengiva artificial e 5,30º (DP = 3,88º) e 0,70 mm (DP = 0,82 mm) para os guias com apoio ósseo . Os guias com apoio ósseo e gengival apresentaram diferença estatística entre si apenas quanto a angulação. Os guias cirúrgicos para implantes osteointegrados construídos apartir de prototipagem rápida oferecem precisão na transferência do planejamento para o campo operatório e sua utilização poderá aumentar a previsibilidade dos resultados, assim como facilitar a cirurgia e minimizar a intervenção cirúrgica.
Resumo:
Dois métodos de filtragem são combinados neste trabalho com a finalidade de ressaltar determinadas feições, em um mapa aeromagnético, tais como lineamentos e anomalias de grande porte, provindos do embasamento. A filtragem visual consiste na observação estereoscópica de pares de mapas, especialmente elaborados para este fim. A filtragem numérica consiste na eliminação dos componentes espectrais indesejáveis (ruído) e no realce dos componentes espectrais de interesse (sinal). Ambos os métodos foram aplicados a mapas aeromagnéticos da Bacia do Médio Amazonas. As operações de filtragem numérica foram todas efetuadas no domínio dos espaços, através de convolução dos dados com filtros de dimensões 13x13. A análise preliminar do espectro é enfatizada como guia na elaboração de filtros. Os resultados da aplicação de cada filtro são discutidos em detalhe. Além das filtragens visual e numérica, vários modelos de falhas e de anomalias do intraembasamento e do supraembasemento são apresentados. A análise de modelos constitui um método de interpretação independente e complementar dos métodos de filtragens. Uma interpretação estrutural do embasamento da Bacia do Médio Amazonas é incluída. As direções principais dos lineamentos aeromagnéticos são E-W, NW60°, N-S, NF45° e NE6O°. Dois grabens sao bem evidenciados um com direção N-S, o mais recente próximo à borda do Alto do Purus. O outro, mais antigo, situa-se a leste do primeiro e tem direção NE45°. Duas anomalias de grande e médio porte (15-60km) possuem magnetização remanente com altos valores de inclinação negativa, o que corrobora a posição muito mais ao sul da Bacia Amazônica, no Paleozóico. Na integração dos dados aeromagnéticos com outros dados geofísicos, como sísmica e gravimetria, e resultados de fotointerpretação geológica, a consistência das informações independentes, em relação à interpretação aeromagnética, concorre para aumentar a viabilidade e a confiabilidade das técnicas aplica das neste trabalho.
Resumo:
The proliferation of multimedia content and the demand for new audio or video services have fostered the development of a new era based on multimedia information, which allowed the evolution of Wireless Multimedia Sensor Networks (WMSNs) and also Flying Ad-Hoc Networks (FANETs). In this way, live multimedia services require realtime video transmissions with a low frame loss rate, tolerable end-to-end delay, and jitter to support video dissemination with Quality of Experience (QoE) support. Hence, a key principle in a QoE-aware approach is the transmission of high priority frames (protect them) with a minimum packet loss ratio, as well as network overhead. Moreover, multimedia content must be transmitted from a given source to the destination via intermediate nodes with high reliability in a large scale scenario. The routing service must cope with dynamic topologies caused by node failure or mobility, as well as wireless channel changes, in order to continue to operate despite dynamic topologies during multimedia transmission. Finally, understanding user satisfaction on watching a video sequence is becoming a key requirement for delivery of multimedia content with QoE support. With this goal in mind, solutions involving multimedia transmissions must take into account the video characteristics to improve video quality delivery. The main research contributions of this thesis are driven by the research question how to provide multimedia distribution with high energy-efficiency, reliability, robustness, scalability, and QoE support over wireless ad hoc networks. The thesis addresses several problem domains with contributions on different layers of the communication stack. At the application layer, we introduce a QoE-aware packet redundancy mechanism to reduce the impact of the unreliable and lossy nature of wireless environment to disseminate live multimedia content. At the network layer, we introduce two routing protocols, namely video-aware Multi-hop and multi-path hierarchical routing protocol for Efficient VIdeo transmission for static WMSN scenarios (MEVI), and cross-layer link quality and geographical-aware beaconless OR protocol for multimedia FANET scenarios (XLinGO). Both protocols enable multimedia dissemination with energy-efficiency, reliability and QoE support. This is achieved by combining multiple cross-layer metrics for routing decision in order to establish reliable routes.
Resumo:
Os principais objetivos deste trabalho são propor um algoritmo eficiente e o mais automático possível para estimar o que está coberto por regiões de nuvens e sombras em imagens de satélite; e um índice de confiabilidade, que seja aplicado previamente à imagem, visando medir a viabilidade da estimação das regiões cobertas pelos componentes atmosféricos usando tal algoritmo. A motivação vem dos problemas causados por esses elementos, entre eles: dificultam a identificação de objetos de imagem, prejudicam o monitoramento urbano e ambiental, e desfavorecem etapas cruciais do processamento digital de imagens para extrair informações ao usuário, como segmentação e classificação. Através de uma abordagem híbrida, é proposto um método para decompor regiões usando um filtro passa-baixas não-linear de mediana, a fim de mapear as regiões de estrutura (homogêneas), como vegetação, e de textura (heterogêneas), como áreas urbanas, na imagem. Nessas áreas, foram aplicados os métodos de restauração Inpainting por suavização baseado em Transformada Cosseno Discreta (DCT), e Síntese de Textura baseada em modelos, respectivamente. É importante salientar que as técnicas foram modificadas para serem capazes de trabalhar com imagens de características peculiares que são obtidas por meio de sensores de satélite, como por exemplo, as grandes dimensões e a alta variação espectral. Já o índice de confiabilidade, tem como objetivo analisar a imagem que contém as interferências atmosféricas e daí estimar o quão confiável será a redefinição com base no percentual de cobertura de nuvens sobre as regiões de textura e estrutura. Tal índice é composto pela combinação do resultado de algoritmos supervisionados e não-supervisionados envolvendo 3 métricas: Exatidão Global Média (EGM), Medida De Similaridade Estrutural (SSIM) e Confiança Média Dos Pixels (CM). Finalmente, verificou-se a eficácia destas metodologias através de uma avaliação quantitativa (proporcionada pelo índice) e qualitativa (pelas imagens resultantes do processamento), mostrando ser possível a aplicação das técnicas para solucionar os problemas que motivaram a realização deste trabalho.
Resumo:
O presente trabalho consiste no desenvolvimento de uma interface gráfica para pré e pós-processamentos de dados elétricos e eletromagnéticos em geofísica utilizando-a na transformação da EGSLIB – Electrical Geophysics Software Library, a qual é constituída por um acervo de programas FORTRAN para DOS, em um software integrado e que possua uma eficiente interface gráfica com o usuário. O resultado deste esforço foi a surgimento de um produto que foi denominado EGS 2000 – Electrical Geophysics Suite - 2000 version. Construído em ambiente DELPHI da Borland, através de um processo de desenvolvimento que, além de orientado a objetos, foi centrado em uma arquitetura que permitiu um alto grau de aproveitamento de programas FORTRAN já desenvolvidos e testados. Tal produto, constitui-se em uma poderosa ferramenta de auxílio à modelagem e interpretação de dados geofísicos totalmente executável no sistema operacional MS-Windows. Com isso, alcançou-se uma forma economicamente viável para dar uma destinação prática aos resultados teóricos obtidos nas universidades e institutos de pesquisa. Os exemplos apresentados, mostram-nos que, auxiliadas por computador, modelagens e interpretações de dados geofísicos alcançam um nível de produtividade e versatilidade jamais obtidos pelas ferramentas de outrora, uma vez que diversos modelos podem ser armazenados e recuperados e seus resultados comparados com dados observados sistematicamente colecionados, conferindo ao processo um alto grau de confiabilidade e rapidez.
Resumo:
O método de empilhamento por Superfície de Reflexão Comum (SRC) produz seções simuladas de afastamento nulo (AN) por meio do somatório de eventos sísmicos dos dados de cobertura múltipla contidos nas superfícies de empilhamento. Este método não depende do modelo de velocidade do meio, apenas requer o conhecimento a priori da velocidade próxima a superfície. A simulação de seções AN por este método de empilhamento utiliza uma aproximação hiperbólica de segunda ordem do tempo de trânsito de raios paraxiais para definir a superfície de empilhamento ou operador de empilhamento SRC. Para meios 2D este operador depende de três atributos cinemáticos de duas ondas hipotéticas (ondas PIN e N), observados no ponto de emergência do raio central com incidência normal, que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0) , o raio de curvatura da onda ponto de incidência normal (RPIN) e o raio de curvatura da onda normal (RN). Portanto, o problema de otimização no método SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros (β0, RPIN, RN) ótimos associados a cada ponto de amostragem da seção AN a ser simulada. A determinação simultânea destes parâmetros pode ser realizada por meio de processos de busca global (ou otimização global) multidimensional, utilizando como função objetivo algum critério de coerência. O problema de otimização no método SRC é muito importante para o bom desempenho no que diz respeito a qualidade dos resultados e principalmente ao custo computacional, comparado com os métodos tradicionalmente utilizados na indústria sísmica. Existem várias estratégias de busca para determinar estes parâmetros baseados em buscas sistemáticas e usando algoritmos de otimização, podendo estimar apenas um parâmetro de cada vez, ou dois ou os três parâmetros simultaneamente. Levando em conta a estratégia de busca por meio da aplicação de otimização global, estes três parâmetros podem ser estimados através de dois procedimentos: no primeiro caso os três parâmetros podem ser estimados simultaneamente e no segundo caso inicialmente podem ser determinados simultaneamente dois parâmetros (β0, RPIN) e posteriormente o terceiro parâmetro (RN) usando os valores dos dois parâmetros já conhecidos. Neste trabalho apresenta-se a aplicação e comparação de quatro algoritmos de otimização global para encontrar os parâmetros SRC ótimos, estes são: Simulated Annealing (SA), Very Fast Simulated Annealing (VFSA), Differential Evolution (DE) e Controlled Rando Search - 2 (CRS2). Como resultados importantes são apresentados a aplicação de cada método de otimização e a comparação entre os métodos quanto a eficácia, eficiência e confiabilidade para determinar os melhores parâmetros SRC. Posteriormente, aplicando as estratégias de busca global para a determinação destes parâmetros, por meio do método de otimização VFSA que teve o melhor desempenho foi realizado o empilhamento SRC a partir dos dados Marmousi, isto é, foi realizado um empilhamento SRC usando dois parâmetros (β0, RPIN) estimados por busca global e outro empilhamento SRC usando os três parâmetros (β0, RPIN, RN) também estimados por busca global.
Resumo:
O trabalho aqui apresentado visa o estudo da migração 3D no tempo, em amplitudes verdadeiras, de dados da seção afastamento nulo ("zero-offset"), usando a aproximação de segunda ordem do tempo de trânsito de difração. O processo de migração no tempo usa a função difração determinada, corretamente, através de mesmos parâmetros que controlam a função tempo de trânsito de reflexão, além do auxílio dos raios paraxiais. Os parâmetros que controlam a função tempo de trânsito de reflexão são determinados através de pelo menos nove medidas de tempo de trânsito, obtidas a partir de dados pré-empilhados (tiro comum, ponto médio comum - CMP, etc.). Determinada a função difração, pode-se fazer a migração sem a necessidade de que se conheça o modelo de velocidades, pois a função tempo de trânsito de difração, como definido neste trabalho, não necessita do mesmo. O espalhamento geométrico é removido através do processo de migração e aplicação de uma função peso aos dados da seção afastamento nulo. Juntamente com a função peso, aplicou-se um filtro objetivando a recuperação da fase do sinal, ocorrida como consequência do processo de migração. Devido a limitação computacional, fez-se testes com dados sintéticos, em 2D, objetivando verificar a eficiência do programa. Os resultados obtidos foram satisfatórios, mostrando a eficiência e confiabilidade do processo.
Resumo:
O objetivo da presente dissertação é avaliar o efeito do cultivo de dendezeiro Elaeis guineenses JACQ. na integridade física e nas assembleias de peixes de igarapés de terra firme da Amazônia Oriental. Os sítios de amostragem foram estabelecidos em trechos (150 m) de 23 igarapés da bacia do rio Acará-Mirim, Nordeste do Estado do Pará distribuídos em áreas de drenagem com floresta primária até áres de plantio de dendezeiro. De acordo com os resultados do índice de integridade física (IIF), dos 23 igarapés amostrados, todos que drenam áreas de fragmentos florestais foram classificados como íntegros (IIF = 5,00 – 4,00), enquanto que os 15 igarapés que drenam plantações de dendezeiro foram classificados como alterados (IIF = 3,67 – 2,67). Foram coligidos 9.734 espécimes de peixes pertencentes a seis ordens, 24 famílias, distribuídos em 64 espécies. As espécies mais abundantes durante o estudo foram Microcharacidium weitzmani, Apistogramma gr. regani, Trichomycterus hasemani, Hyphessobrycon heterorhabdus e Copella arnoldi. A riqueza observada em igarapés que drenam plantações foi superior (S = 61) a encontrada em igarapés que drenam fragmentos florestais (S = 42). Os resultados da PERMANOVA evidenciam que existe diferença entre os ambientes amostrados (G.L. = 22; pseudo-F = 2,44; P = 0,01), no entanto, o ordenamento produzido pelo NMDS demonstra que essa diferença é sutil (stress = 0,19), pois apenas três espécies são exclusivas de florestas e 22 exclusivas de áreas de palmeiras de dendezeiro. Resultado semelhante foi obtido utilizando-se a abundância dos grupos tróficos funcionais (GTF) (stress = 0,18). Os resultados do TITAN indicam que algumas espécies apresentam adaptações para persistir em determinadas situações ambientais, como por exemplo, Aequidens tetramrus, Apistogramma agassizii e Microcharacidium weitzmani que estão associadas a igarapés que drenam plantações de dendezeiro e são boas indicadoras de locais com menor integridade do hábitat físico (P < 0,05; pureza > 0,95; confiabilidade > 0,95), enquanto que as espécies Hyphessobrycon heterorhabdus e Helogenes marmoratus demonstaram ser indicadoras de hábitats mais íntegros (P < 0,05; pureza > 0,95; confiabilidade > 0,95). Não houve correlação entre a riqueza de espécies de peixes e o índice de integridade física, enquanto que os únicos grupos tróficos funcionais que apresentaram correlação com o índice de integridade física foram os escavadores e coletores navegadores. Esses grupos são compostos por peixes da família Cichlidae que apresentam comportamentos tolerantes e generalistas que podem ter explicado sua grande contribuição na assembleia de peixes mesmo em locais onde a sedimentação foi alta comparada aos locais com a configuração mais próxima do natural. Isso evidencia que mesmo a riqueza de espécies sendo maior em igarapés alterados há fortes indícios de perda de qualidade ambiental nos igarapés que drenam plantações gerada pelo cultivo de dendezeiro.
Resumo:
Com o advindo do marco regulatório do Setor Elétrico Brasileiro, a partir de 2004, os agentes que atuam neste mercado têm experimentado um acirramento nas disputas por novos negócios, evidenciando um aumento de competitividade. A Disponibilidade dos Ativos Físicos e os Custos com Manutenção se apresentam como os pontos chave para a competitividade dos agentes. O presente trabalho tem por objetivo apresentar uma metodologia de Análise de Disponibilidade de Sistemas Reparáveis, durante as etapas de projeto ou de operação do sistema, contemplando a mensuração dos Custos com Manutenção versus o Desembolso com Aquisição para um nível esperado de desempenho. A metodologia para a Análise de Disponibilidade sugerida se utiliza da construção do Diagrama de Blocos do Sistema com respectivas descrições funcionais, exportação das informações para o formato de Árvore de Sucesso, composta de portas lógicas dos tipos "E" e "OU" as quais caracterizam um subsistema integrante do sistema principal. O analista pode reavaliar a topologia do sistema, agregando ou retirando redundâncias com a finalidade de ajustar o desempenho do projeto aos requisitos de Disponibilidade, Custo de Aquisição e Custos de Manutenção. Como resultados do trabalho foram identificadas lacunas normativas que definem a forma de controle do desempenho dos ativos, estabelecida uma sistemática de integração entre técnicas de modelagem de confiabilidade e disponibilidade, estabelecidos e incorporados indicadores de desempenho de Manutenção Programada em um agente do mercado, foram modelados e discutidos diferentes cenários para um Sistema de Circulação de Óleo de Mancal e foi aplicado o modelo a toda uma Unidade Geradora Hidráulica por meio da implementação computacional do modelo aos componentes críticos dos principais sistemas.
Resumo:
A preocupação com as rotinas de manutenção normalmente está relacionada à falha de um processo ou equipamento (manutenção corretiva). O controle sistemático da manutenção e operação dos ativos é considerado um alto ponto de redução de custos e aumento da disponibilidade operacional para o planejamento estratégico. Como resultado, tem-se na área de manutenção, uma grande quantidade de métodos, software, modelos e ferramentas de gestão disponíveis. Dentre eles, dois métodos se destacam: o RCM (Reliability Centered Maintenance ou Manutenção Centrada em Confiabilidade), de origem norte-americana, e o TPM (Total Productive Maintenance ou Manutenção Produtiva Total), de origem japonesa. Desta forma, o objetivo principal deste trabalho é estudar a sistemática do planejamento estratégico e da manutenção planejada para a redução de falhas e defeitos que ocorrem em equipamentos, a partir das metodologias propostas pelos principais autores da área de planejamento estratégico e manutenção, com o intuito de propor melhorias na utilização desta ferramenta. Com base no referencial teórico (Amendola, Berndt, Coimbra, Certo, Copser, Nakajima, Mendes, Moreira, Moubray, Oliveira, Kaplan entre outros) estudado, foi possível iniciar a compreensão do planejamento da gestão da manutenção planejada da Usina Hidrelétrica de Tucuruí e suas práticas de desempenho em relação às práticas de referência e dos principais indicadores estratégicos destacados por esses autores. Esta pesquisa possibilitou avaliar que o atual procedimento adotado em Tucuruí está alinhado com todos os pensadores estudados, bastando apenas à melhor disseminação de todos os conceitos entre todos os níveis hieraquicos de planejamento e execução.
Resumo:
Atualmente setor elétrico brasileiro está estruturado sobre a disponibilidade das unidades geradoras, subestações e linhas de transmissão. Com a aplicação das regras do novo modelo do setor, tanto as empresas de geração como as de transmissão, passaram a ser submetidas a mecanismos que penalizam a indisponibilidade, causada por desligamentos forçados ou programados, dos seus ativos. Para evitar a aplicação destes mecanismos, e outras penalidades, que causam grandes prejuízos, é preciso que o processo de manutenção garanta a disponibilidade e confiabilidade, dos equipamentos e instalações. Este trabalho propõe um método de gestão da produção, também direcionado para a eliminação das perdas existentes no processo de geração e transmissão de energia elétrica, adaptado da Manutenção Produtiva Total – TPM. O desenvolvimento do método está baseado no estudo da aplicação da TPM nas plantas de geração e transmissão da Eletrobras Eletronorte. O método proposto deverá fomentar a gestão da qualidade não só na manutenção e operação (O&M), mas também em todos os processos que possam impactar na disponibilidade dos ativos de geração e transmissão.
Resumo:
Este trabalho visa avaliar as dificuldades e utilidades do monitoramento remoto de um sistema para o atendimento de cargas isoladas da rede elétrica, envolvendo sistemas reais em operação que podem ajudar a identificar os principais fatores que influenciam na vida útil desses dispositivos, tornando possível propor estratégias e tecnologias que melhorem a confiabilidade do sistema, possibilitem uma configuração mais adequada e reduzam os custos globais do sistema ao longo de sua vida útil. Para isso foi incorporado um sistema de monitoramento remoto via LabVIEW a um sistema híbrido isolado insta-lado em flutuante localizada as margens do lago da cidade de Tefé-AM. O sistema de geração foi composto inicialmente por um gerador fotovoltaico (FV) com potência de 2,08 kWp, dois subgeradores 1,04 kWp cada, e depois ampliado para 2,6 Wp mais 350 Wp de geração eólica. Além disso, um banco de acumuladores eletroquímicos com tensão nominal de 24 V e composto por 20 baterias de 150 Ah cada, Dois controladores de carga 24 V / 40 A e um inversor de onda senoidal de 1.500 VA. Resultados de operacionais apresentados neste trabalho ajudam a entender melhor o funcionamento desses sistemas e avaliar as barreiras encontradas no monitoramento remoto dessas unidades. Esse expe-rimento foi realizado em parceria do laboratório do Grupo de Estudos e Desenvolvimento de Alternativas Energéticas na Universidade Federal do Pará com o Núcleo de Inovação tecnológica do Instituto de Desenvolvimento Sustentável Mamirauá.
Resumo:
Normalmente, os programas de manutenções implementados nas empresas de geração, transmissão e distribuição de energia elétrica buscam evitar que falhas venham a provocar a retirada do equipamento do sistema elétrico, o que significa grandes perdas financeiras, seja pela diminuição do faturamento, seja pelo pagamento de multas a agência reguladora, alem da diminuição da confiabilidade do sistema. Para evitar esses inconvenientes, a engenharia de manutencao lanca mao de ferramentas estrategicas para a gestao e solucoes dos problemas, visando a otimizacao, juntamente com circulo virtuoso de melhorias continuas nos processos de manutencao. Este trabalho tem por finalidade fazer uma analise da Metodologia de Analise e Solucao de Problemas (MASP), como ferramenta de gestao estrategica na busca e solucao de problemas no ambito da engenharia de manutencao. Para isso, inicialmente, apresenta-se uma serie de informacoes sobre a gestao da manutencao, bem como todo o arcabouco que envolve qualidade e ferramentas gerenciais. Com o capitulo que trata especificamente do MASP, tem-se uma nocao mais exata do quanto cada ferramenta e necessaria para que se possa desenvolver um bom trabalho, visto que ele retrata que essa metodologia nada mais e do que o somatorio de todas as ferramentas existentes, colocadas de maneira ordenada. Por fim, apresentam-se quatro estudos de casos, pelos quais pretendemos demonstrar a Metodologia de Analise e Solucao de Problemas e a aplicabilidade na gestão estratégica, com visão em resultados no ambiente da engenharia de manutenção no pilar das manutenções programadas e autônomas - MP/MA, no ambito da Divisãoo de Transmissão de Ji-Parana/RO - ORDJ, vinculada a Centrais Eletricas do Norte do Brasil (Eletronorte). Na conclusao, faz-se uma analise critica do uso da metodologia na prestação de serviços, baseada na aplicaão supracitada.
Resumo:
A presente dissertação trata sobre o Sistema de Gestão implantado no Centro de Tecnologia da Eletrobras - Eletronorte – OCT, face à norma ABNT NBR ISO/IEC17025. Objetiva analisar o Sistema de Gestão da Qualidade em laboratório de ensaio. Expõe o crescimento do uso de sistemas de gestão, para dizer que em geral tem aumentado à necessidade de assegurar que laboratórios que fazem parte de organizações maiores ou que oferecem outros serviços possam operar de acordo com um sistema de gestão que esteja em conformidade com a norma ABNT NBR ISO 9001. Para conduzir e operar com sucesso uma organização é necessário dirigila e controlá-la de maneira transparente e sistemática. Verifica-se que seu sucesso pode resultar da implementação e manutenção de um sistema de gestão concebido para melhorar continuamente seu desempenho, levando em consideração, ao mesmo tempo, as necessidades de todas as partes interessadas. Os laboratórios acreditados garantem aspectos referentes à confiabilidade, a confidencialidade dos resultados propostos, além da rastreabilidade dos padrões utilizados nos ensaios e calibrações.
Resumo:
Nos sistemas elétricos de potência, os reatores em derivação são os equipamentos responsáveis pela redução ou mesmo anulação dos efeitos capacitivos indesejáveis na operação das linhas. Percebe-se, então, a importância desses equipamentos e a necessidade de mantê-los em perfeito funcionamento, pois uma falha grave gera um elevado custo de manutenção corretiva, queda nos indicadores de desempenho, além de multas por parte da agência reguladora - Agência Nacional de Energia Elétrica - ANEEL. O ciclo de vida de um reator em derivação envolve oito etapas - Planejamento, Especificação, Aquisição, Fabricação, Instalação, Comissionamento, Exploração e Desclassificação. Neste trabalho serão abordados apenas aspectos relativos à gestão da fase de exploração, que contempla o conjunto de processos de operação e manutenção de acordo com as perspectivas da empresa onde este estudo foi realizado. O processo de envelhecimento do reator pode ocorrer de diversas maneiras, no entanto o tempo de vida útil de um reator é condicionado essencialmente por dois fatores: a velocidade de envelhecimento e perda de robustez dos seus materiais e componentes e, as condições de funcionamento a que está sujeito ao longo do tempo. Para evitar danos aos reatores, as empresas de energia elétrica têm adotado procedimentos de manutenção preventivo e preditivo, que quando baseados em diagnósticos de diferentes métodos de avaliação tem um impacto fundamental na vida útil e confiabilidade dos reatores. Sendo a condição de degradação de um reator um processo contínuo no tempo, este pode ser classificado em cinco estágios: Novo, Normal, Anormal, Defeituoso e Falhado. Um índice de condição (IC) pode ser atribuído a cada um destes estágios de degradação, de acordo com os resultados de um conjunto de testes de diagnósticos para análise do estado de operação do reator e estimação da sua posição atual em relação ao seu ciclo de vida. Esta dissertação trata do desenvolvimento de uma metodologia para sistematizar a análise com a combinação de catorze diferentes métodos de diagnósticos e mapear os resultados em um modelo de condição que oriente o ciclo de vida do reator. A metodologia foi aplicada em dez reatores de 500 kV em duas subestações da Eletrobras-Eletronorte no Sistema de Transmissão do Pará, empresa na qual foi realizado este estudo.