969 resultados para Confiabilidade (Probabilidades)
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Pós-graduação em Enfermagem (mestrado profissional) - FMB
Resumo:
The proliferation of multimedia content and the demand for new audio or video services have fostered the development of a new era based on multimedia information, which allowed the evolution of Wireless Multimedia Sensor Networks (WMSNs) and also Flying Ad-Hoc Networks (FANETs). In this way, live multimedia services require realtime video transmissions with a low frame loss rate, tolerable end-to-end delay, and jitter to support video dissemination with Quality of Experience (QoE) support. Hence, a key principle in a QoE-aware approach is the transmission of high priority frames (protect them) with a minimum packet loss ratio, as well as network overhead. Moreover, multimedia content must be transmitted from a given source to the destination via intermediate nodes with high reliability in a large scale scenario. The routing service must cope with dynamic topologies caused by node failure or mobility, as well as wireless channel changes, in order to continue to operate despite dynamic topologies during multimedia transmission. Finally, understanding user satisfaction on watching a video sequence is becoming a key requirement for delivery of multimedia content with QoE support. With this goal in mind, solutions involving multimedia transmissions must take into account the video characteristics to improve video quality delivery. The main research contributions of this thesis are driven by the research question how to provide multimedia distribution with high energy-efficiency, reliability, robustness, scalability, and QoE support over wireless ad hoc networks. The thesis addresses several problem domains with contributions on different layers of the communication stack. At the application layer, we introduce a QoE-aware packet redundancy mechanism to reduce the impact of the unreliable and lossy nature of wireless environment to disseminate live multimedia content. At the network layer, we introduce two routing protocols, namely video-aware Multi-hop and multi-path hierarchical routing protocol for Efficient VIdeo transmission for static WMSN scenarios (MEVI), and cross-layer link quality and geographical-aware beaconless OR protocol for multimedia FANET scenarios (XLinGO). Both protocols enable multimedia dissemination with energy-efficiency, reliability and QoE support. This is achieved by combining multiple cross-layer metrics for routing decision in order to establish reliable routes.
Resumo:
Os principais objetivos deste trabalho são propor um algoritmo eficiente e o mais automático possível para estimar o que está coberto por regiões de nuvens e sombras em imagens de satélite; e um índice de confiabilidade, que seja aplicado previamente à imagem, visando medir a viabilidade da estimação das regiões cobertas pelos componentes atmosféricos usando tal algoritmo. A motivação vem dos problemas causados por esses elementos, entre eles: dificultam a identificação de objetos de imagem, prejudicam o monitoramento urbano e ambiental, e desfavorecem etapas cruciais do processamento digital de imagens para extrair informações ao usuário, como segmentação e classificação. Através de uma abordagem híbrida, é proposto um método para decompor regiões usando um filtro passa-baixas não-linear de mediana, a fim de mapear as regiões de estrutura (homogêneas), como vegetação, e de textura (heterogêneas), como áreas urbanas, na imagem. Nessas áreas, foram aplicados os métodos de restauração Inpainting por suavização baseado em Transformada Cosseno Discreta (DCT), e Síntese de Textura baseada em modelos, respectivamente. É importante salientar que as técnicas foram modificadas para serem capazes de trabalhar com imagens de características peculiares que são obtidas por meio de sensores de satélite, como por exemplo, as grandes dimensões e a alta variação espectral. Já o índice de confiabilidade, tem como objetivo analisar a imagem que contém as interferências atmosféricas e daí estimar o quão confiável será a redefinição com base no percentual de cobertura de nuvens sobre as regiões de textura e estrutura. Tal índice é composto pela combinação do resultado de algoritmos supervisionados e não-supervisionados envolvendo 3 métricas: Exatidão Global Média (EGM), Medida De Similaridade Estrutural (SSIM) e Confiança Média Dos Pixels (CM). Finalmente, verificou-se a eficácia destas metodologias através de uma avaliação quantitativa (proporcionada pelo índice) e qualitativa (pelas imagens resultantes do processamento), mostrando ser possível a aplicação das técnicas para solucionar os problemas que motivaram a realização deste trabalho.
Resumo:
A automação na gestão e análise de dados tem sido um fator crucial para as empresas que necessitam de soluções eficientes em um mundo corporativo cada vez mais competitivo. A explosão do volume de informações, que vem se mantendo crescente nos últimos anos, tem exigido cada vez mais empenho em buscar estratégias para gerenciar e, principalmente, extrair informações estratégicas valiosas a partir do uso de algoritmos de Mineração de Dados, que comumente necessitam realizar buscas exaustivas na base de dados a fim de obter estatísticas que solucionem ou otimizem os parâmetros do modelo de extração do conhecimento utilizado; processo que requer computação intensiva para a execução de cálculos e acesso frequente à base de dados. Dada a eficiência no tratamento de incerteza, Redes Bayesianas têm sido amplamente utilizadas neste processo, entretanto, à medida que o volume de dados (registros e/ou atributos) aumenta, torna-se ainda mais custoso e demorado extrair informações relevantes em uma base de conhecimento. O foco deste trabalho é propor uma nova abordagem para otimização do aprendizado da estrutura da Rede Bayesiana no contexto de BigData, por meio do uso do processo de MapReduce, com vista na melhora do tempo de processamento. Para tanto, foi gerada uma nova metodologia que inclui a criação de uma Base de Dados Intermediária contendo todas as probabilidades necessárias para a realização dos cálculos da estrutura da rede. Por meio das análises apresentadas neste estudo, mostra-se que a combinação da metodologia proposta com o processo de MapReduce é uma boa alternativa para resolver o problema de escalabilidade nas etapas de busca em frequência do algoritmo K2 e, consequentemente, reduzir o tempo de resposta na geração da rede.
Resumo:
O presente trabalho consiste no desenvolvimento de uma interface gráfica para pré e pós-processamentos de dados elétricos e eletromagnéticos em geofísica utilizando-a na transformação da EGSLIB – Electrical Geophysics Software Library, a qual é constituída por um acervo de programas FORTRAN para DOS, em um software integrado e que possua uma eficiente interface gráfica com o usuário. O resultado deste esforço foi a surgimento de um produto que foi denominado EGS 2000 – Electrical Geophysics Suite - 2000 version. Construído em ambiente DELPHI da Borland, através de um processo de desenvolvimento que, além de orientado a objetos, foi centrado em uma arquitetura que permitiu um alto grau de aproveitamento de programas FORTRAN já desenvolvidos e testados. Tal produto, constitui-se em uma poderosa ferramenta de auxílio à modelagem e interpretação de dados geofísicos totalmente executável no sistema operacional MS-Windows. Com isso, alcançou-se uma forma economicamente viável para dar uma destinação prática aos resultados teóricos obtidos nas universidades e institutos de pesquisa. Os exemplos apresentados, mostram-nos que, auxiliadas por computador, modelagens e interpretações de dados geofísicos alcançam um nível de produtividade e versatilidade jamais obtidos pelas ferramentas de outrora, uma vez que diversos modelos podem ser armazenados e recuperados e seus resultados comparados com dados observados sistematicamente colecionados, conferindo ao processo um alto grau de confiabilidade e rapidez.
Resumo:
O método de empilhamento por Superfície de Reflexão Comum (SRC) produz seções simuladas de afastamento nulo (AN) por meio do somatório de eventos sísmicos dos dados de cobertura múltipla contidos nas superfícies de empilhamento. Este método não depende do modelo de velocidade do meio, apenas requer o conhecimento a priori da velocidade próxima a superfície. A simulação de seções AN por este método de empilhamento utiliza uma aproximação hiperbólica de segunda ordem do tempo de trânsito de raios paraxiais para definir a superfície de empilhamento ou operador de empilhamento SRC. Para meios 2D este operador depende de três atributos cinemáticos de duas ondas hipotéticas (ondas PIN e N), observados no ponto de emergência do raio central com incidência normal, que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0) , o raio de curvatura da onda ponto de incidência normal (RPIN) e o raio de curvatura da onda normal (RN). Portanto, o problema de otimização no método SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros (β0, RPIN, RN) ótimos associados a cada ponto de amostragem da seção AN a ser simulada. A determinação simultânea destes parâmetros pode ser realizada por meio de processos de busca global (ou otimização global) multidimensional, utilizando como função objetivo algum critério de coerência. O problema de otimização no método SRC é muito importante para o bom desempenho no que diz respeito a qualidade dos resultados e principalmente ao custo computacional, comparado com os métodos tradicionalmente utilizados na indústria sísmica. Existem várias estratégias de busca para determinar estes parâmetros baseados em buscas sistemáticas e usando algoritmos de otimização, podendo estimar apenas um parâmetro de cada vez, ou dois ou os três parâmetros simultaneamente. Levando em conta a estratégia de busca por meio da aplicação de otimização global, estes três parâmetros podem ser estimados através de dois procedimentos: no primeiro caso os três parâmetros podem ser estimados simultaneamente e no segundo caso inicialmente podem ser determinados simultaneamente dois parâmetros (β0, RPIN) e posteriormente o terceiro parâmetro (RN) usando os valores dos dois parâmetros já conhecidos. Neste trabalho apresenta-se a aplicação e comparação de quatro algoritmos de otimização global para encontrar os parâmetros SRC ótimos, estes são: Simulated Annealing (SA), Very Fast Simulated Annealing (VFSA), Differential Evolution (DE) e Controlled Rando Search - 2 (CRS2). Como resultados importantes são apresentados a aplicação de cada método de otimização e a comparação entre os métodos quanto a eficácia, eficiência e confiabilidade para determinar os melhores parâmetros SRC. Posteriormente, aplicando as estratégias de busca global para a determinação destes parâmetros, por meio do método de otimização VFSA que teve o melhor desempenho foi realizado o empilhamento SRC a partir dos dados Marmousi, isto é, foi realizado um empilhamento SRC usando dois parâmetros (β0, RPIN) estimados por busca global e outro empilhamento SRC usando os três parâmetros (β0, RPIN, RN) também estimados por busca global.
Resumo:
O trabalho aqui apresentado visa o estudo da migração 3D no tempo, em amplitudes verdadeiras, de dados da seção afastamento nulo ("zero-offset"), usando a aproximação de segunda ordem do tempo de trânsito de difração. O processo de migração no tempo usa a função difração determinada, corretamente, através de mesmos parâmetros que controlam a função tempo de trânsito de reflexão, além do auxílio dos raios paraxiais. Os parâmetros que controlam a função tempo de trânsito de reflexão são determinados através de pelo menos nove medidas de tempo de trânsito, obtidas a partir de dados pré-empilhados (tiro comum, ponto médio comum - CMP, etc.). Determinada a função difração, pode-se fazer a migração sem a necessidade de que se conheça o modelo de velocidades, pois a função tempo de trânsito de difração, como definido neste trabalho, não necessita do mesmo. O espalhamento geométrico é removido através do processo de migração e aplicação de uma função peso aos dados da seção afastamento nulo. Juntamente com a função peso, aplicou-se um filtro objetivando a recuperação da fase do sinal, ocorrida como consequência do processo de migração. Devido a limitação computacional, fez-se testes com dados sintéticos, em 2D, objetivando verificar a eficiência do programa. Os resultados obtidos foram satisfatórios, mostrando a eficiência e confiabilidade do processo.
Resumo:
O objetivo da presente dissertação é avaliar o efeito do cultivo de dendezeiro Elaeis guineenses JACQ. na integridade física e nas assembleias de peixes de igarapés de terra firme da Amazônia Oriental. Os sítios de amostragem foram estabelecidos em trechos (150 m) de 23 igarapés da bacia do rio Acará-Mirim, Nordeste do Estado do Pará distribuídos em áreas de drenagem com floresta primária até áres de plantio de dendezeiro. De acordo com os resultados do índice de integridade física (IIF), dos 23 igarapés amostrados, todos que drenam áreas de fragmentos florestais foram classificados como íntegros (IIF = 5,00 – 4,00), enquanto que os 15 igarapés que drenam plantações de dendezeiro foram classificados como alterados (IIF = 3,67 – 2,67). Foram coligidos 9.734 espécimes de peixes pertencentes a seis ordens, 24 famílias, distribuídos em 64 espécies. As espécies mais abundantes durante o estudo foram Microcharacidium weitzmani, Apistogramma gr. regani, Trichomycterus hasemani, Hyphessobrycon heterorhabdus e Copella arnoldi. A riqueza observada em igarapés que drenam plantações foi superior (S = 61) a encontrada em igarapés que drenam fragmentos florestais (S = 42). Os resultados da PERMANOVA evidenciam que existe diferença entre os ambientes amostrados (G.L. = 22; pseudo-F = 2,44; P = 0,01), no entanto, o ordenamento produzido pelo NMDS demonstra que essa diferença é sutil (stress = 0,19), pois apenas três espécies são exclusivas de florestas e 22 exclusivas de áreas de palmeiras de dendezeiro. Resultado semelhante foi obtido utilizando-se a abundância dos grupos tróficos funcionais (GTF) (stress = 0,18). Os resultados do TITAN indicam que algumas espécies apresentam adaptações para persistir em determinadas situações ambientais, como por exemplo, Aequidens tetramrus, Apistogramma agassizii e Microcharacidium weitzmani que estão associadas a igarapés que drenam plantações de dendezeiro e são boas indicadoras de locais com menor integridade do hábitat físico (P < 0,05; pureza > 0,95; confiabilidade > 0,95), enquanto que as espécies Hyphessobrycon heterorhabdus e Helogenes marmoratus demonstaram ser indicadoras de hábitats mais íntegros (P < 0,05; pureza > 0,95; confiabilidade > 0,95). Não houve correlação entre a riqueza de espécies de peixes e o índice de integridade física, enquanto que os únicos grupos tróficos funcionais que apresentaram correlação com o índice de integridade física foram os escavadores e coletores navegadores. Esses grupos são compostos por peixes da família Cichlidae que apresentam comportamentos tolerantes e generalistas que podem ter explicado sua grande contribuição na assembleia de peixes mesmo em locais onde a sedimentação foi alta comparada aos locais com a configuração mais próxima do natural. Isso evidencia que mesmo a riqueza de espécies sendo maior em igarapés alterados há fortes indícios de perda de qualidade ambiental nos igarapés que drenam plantações gerada pelo cultivo de dendezeiro.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Com o advindo do marco regulatório do Setor Elétrico Brasileiro, a partir de 2004, os agentes que atuam neste mercado têm experimentado um acirramento nas disputas por novos negócios, evidenciando um aumento de competitividade. A Disponibilidade dos Ativos Físicos e os Custos com Manutenção se apresentam como os pontos chave para a competitividade dos agentes. O presente trabalho tem por objetivo apresentar uma metodologia de Análise de Disponibilidade de Sistemas Reparáveis, durante as etapas de projeto ou de operação do sistema, contemplando a mensuração dos Custos com Manutenção versus o Desembolso com Aquisição para um nível esperado de desempenho. A metodologia para a Análise de Disponibilidade sugerida se utiliza da construção do Diagrama de Blocos do Sistema com respectivas descrições funcionais, exportação das informações para o formato de Árvore de Sucesso, composta de portas lógicas dos tipos "E" e "OU" as quais caracterizam um subsistema integrante do sistema principal. O analista pode reavaliar a topologia do sistema, agregando ou retirando redundâncias com a finalidade de ajustar o desempenho do projeto aos requisitos de Disponibilidade, Custo de Aquisição e Custos de Manutenção. Como resultados do trabalho foram identificadas lacunas normativas que definem a forma de controle do desempenho dos ativos, estabelecida uma sistemática de integração entre técnicas de modelagem de confiabilidade e disponibilidade, estabelecidos e incorporados indicadores de desempenho de Manutenção Programada em um agente do mercado, foram modelados e discutidos diferentes cenários para um Sistema de Circulação de Óleo de Mancal e foi aplicado o modelo a toda uma Unidade Geradora Hidráulica por meio da implementação computacional do modelo aos componentes críticos dos principais sistemas.
Resumo:
A preocupação com as rotinas de manutenção normalmente está relacionada à falha de um processo ou equipamento (manutenção corretiva). O controle sistemático da manutenção e operação dos ativos é considerado um alto ponto de redução de custos e aumento da disponibilidade operacional para o planejamento estratégico. Como resultado, tem-se na área de manutenção, uma grande quantidade de métodos, software, modelos e ferramentas de gestão disponíveis. Dentre eles, dois métodos se destacam: o RCM (Reliability Centered Maintenance ou Manutenção Centrada em Confiabilidade), de origem norte-americana, e o TPM (Total Productive Maintenance ou Manutenção Produtiva Total), de origem japonesa. Desta forma, o objetivo principal deste trabalho é estudar a sistemática do planejamento estratégico e da manutenção planejada para a redução de falhas e defeitos que ocorrem em equipamentos, a partir das metodologias propostas pelos principais autores da área de planejamento estratégico e manutenção, com o intuito de propor melhorias na utilização desta ferramenta. Com base no referencial teórico (Amendola, Berndt, Coimbra, Certo, Copser, Nakajima, Mendes, Moreira, Moubray, Oliveira, Kaplan entre outros) estudado, foi possível iniciar a compreensão do planejamento da gestão da manutenção planejada da Usina Hidrelétrica de Tucuruí e suas práticas de desempenho em relação às práticas de referência e dos principais indicadores estratégicos destacados por esses autores. Esta pesquisa possibilitou avaliar que o atual procedimento adotado em Tucuruí está alinhado com todos os pensadores estudados, bastando apenas à melhor disseminação de todos os conceitos entre todos os níveis hieraquicos de planejamento e execução.
Resumo:
Atualmente setor elétrico brasileiro está estruturado sobre a disponibilidade das unidades geradoras, subestações e linhas de transmissão. Com a aplicação das regras do novo modelo do setor, tanto as empresas de geração como as de transmissão, passaram a ser submetidas a mecanismos que penalizam a indisponibilidade, causada por desligamentos forçados ou programados, dos seus ativos. Para evitar a aplicação destes mecanismos, e outras penalidades, que causam grandes prejuízos, é preciso que o processo de manutenção garanta a disponibilidade e confiabilidade, dos equipamentos e instalações. Este trabalho propõe um método de gestão da produção, também direcionado para a eliminação das perdas existentes no processo de geração e transmissão de energia elétrica, adaptado da Manutenção Produtiva Total – TPM. O desenvolvimento do método está baseado no estudo da aplicação da TPM nas plantas de geração e transmissão da Eletrobras Eletronorte. O método proposto deverá fomentar a gestão da qualidade não só na manutenção e operação (O&M), mas também em todos os processos que possam impactar na disponibilidade dos ativos de geração e transmissão.
Resumo:
Este trabalho visa avaliar as dificuldades e utilidades do monitoramento remoto de um sistema para o atendimento de cargas isoladas da rede elétrica, envolvendo sistemas reais em operação que podem ajudar a identificar os principais fatores que influenciam na vida útil desses dispositivos, tornando possível propor estratégias e tecnologias que melhorem a confiabilidade do sistema, possibilitem uma configuração mais adequada e reduzam os custos globais do sistema ao longo de sua vida útil. Para isso foi incorporado um sistema de monitoramento remoto via LabVIEW a um sistema híbrido isolado insta-lado em flutuante localizada as margens do lago da cidade de Tefé-AM. O sistema de geração foi composto inicialmente por um gerador fotovoltaico (FV) com potência de 2,08 kWp, dois subgeradores 1,04 kWp cada, e depois ampliado para 2,6 Wp mais 350 Wp de geração eólica. Além disso, um banco de acumuladores eletroquímicos com tensão nominal de 24 V e composto por 20 baterias de 150 Ah cada, Dois controladores de carga 24 V / 40 A e um inversor de onda senoidal de 1.500 VA. Resultados de operacionais apresentados neste trabalho ajudam a entender melhor o funcionamento desses sistemas e avaliar as barreiras encontradas no monitoramento remoto dessas unidades. Esse expe-rimento foi realizado em parceria do laboratório do Grupo de Estudos e Desenvolvimento de Alternativas Energéticas na Universidade Federal do Pará com o Núcleo de Inovação tecnológica do Instituto de Desenvolvimento Sustentável Mamirauá.
Resumo:
Normalmente, os programas de manutenções implementados nas empresas de geração, transmissão e distribuição de energia elétrica buscam evitar que falhas venham a provocar a retirada do equipamento do sistema elétrico, o que significa grandes perdas financeiras, seja pela diminuição do faturamento, seja pelo pagamento de multas a agência reguladora, alem da diminuição da confiabilidade do sistema. Para evitar esses inconvenientes, a engenharia de manutencao lanca mao de ferramentas estrategicas para a gestao e solucoes dos problemas, visando a otimizacao, juntamente com circulo virtuoso de melhorias continuas nos processos de manutencao. Este trabalho tem por finalidade fazer uma analise da Metodologia de Analise e Solucao de Problemas (MASP), como ferramenta de gestao estrategica na busca e solucao de problemas no ambito da engenharia de manutencao. Para isso, inicialmente, apresenta-se uma serie de informacoes sobre a gestao da manutencao, bem como todo o arcabouco que envolve qualidade e ferramentas gerenciais. Com o capitulo que trata especificamente do MASP, tem-se uma nocao mais exata do quanto cada ferramenta e necessaria para que se possa desenvolver um bom trabalho, visto que ele retrata que essa metodologia nada mais e do que o somatorio de todas as ferramentas existentes, colocadas de maneira ordenada. Por fim, apresentam-se quatro estudos de casos, pelos quais pretendemos demonstrar a Metodologia de Analise e Solucao de Problemas e a aplicabilidade na gestão estratégica, com visão em resultados no ambiente da engenharia de manutenção no pilar das manutenções programadas e autônomas - MP/MA, no ambito da Divisãoo de Transmissão de Ji-Parana/RO - ORDJ, vinculada a Centrais Eletricas do Norte do Brasil (Eletronorte). Na conclusao, faz-se uma analise critica do uso da metodologia na prestação de serviços, baseada na aplicaão supracitada.