997 resultados para Detecção e localização de falhas
Resumo:
Neste trabalho apresentam-se pocedimentos para análise não linear de estruturas de materiais compostos laminados reforçados por fibras. A formulação é baseada em uma descrição cinemática incremental Lagrangeana Total, que permite o tratamento de deslocamentos arbitrariamente grandes com pequenas deformações, utilizando elementos finitos tridimensionais degenerados deduzidos para a análise de cascas. As estruturas são consideradas como submetidas a cargas mecânicas e a ações de temperatura e de umidade. O material é suposto elástico linear com propriedades dependentes, ou não, dos valores da temperatura e da concentração de umidade, ou viscoelástico linear com uma relação constitutiva em integral hereditária , e com comportamento higrotermo-reologicamente simples. As lâminas são consideradas como sujeitas a falhas, as quais são detectadas através de critérios macroscópicos, baseados em tensões ou em deformações. As equações não lineares de equilíbrio são resolvidas através de procedimentos iterativos e as deformações dependentes do tempo são avaliadas pelo método das variáveis de estado. Diversos exemplos numéricos de estruturas submetidas à flexão, flambagem elástica e viscoelástica e falhas são apresentados.
Resumo:
O objetivo do presente estudo foi comparar os diagnósticos de lesões de cárie oclusal de molares decíduos obtidos in vivo e in vitro, a partir da inspeção visual associada à radiografia interproximal e avaliar in vivo e in vitro a efetividade destes exames para a detecção de lesões de cárie na superfície oclusal de molares decíduos. A amostra foi constituída de 52 molares decíduos superiores e inferiores. Os pacientes foram radiografados com posicionadores que possuíam os registros das mordidas em acrílico dos dentes posteriores aos dentes que seriam examinados. Moldagens dos hemiarcos foram obtidas com silicona de adição. O exame visual associado ao radiográfico da superfície oclusal dos molares decíduos foi realizado. Os dentes foram extraídos e posicionados nas moldagens para obtenção de modelos de gesso simulando as condições in vivo. Os posicionadores com as mordidas em acrílico foram novamente utilizados para as radiografias in vitro. O exame clínico associado ao radiográfico foi repetido in vitro pelo mesmo examinador, depois de em média 120 dias. Os dentes foram avaliados no estereomicroscópio para a obtenção dos diagnósticos definitivos. Através do teste de Wilcoxon, não foram observadas diferenças estatisticamente significantes entre os exames in vivo e in vitro (p = 0,356). Nas análises de todas as lesões, a sensibilidade foi de 0,95 in vivo e in vitro e a especificidade foi de 0,75 in vivo e 1 in vitro. Quando apenas as lesões em dentina foram validadas, a sensibilidade foi de 0,80 in vivo e in vitro e a especificidade foi de 0,77 in vivo e 0,83 in vitro. Assim, os resultados confirmam que os estudos de diagnóstico de cárie em condições laboratoriais são viáveis e possuem aplicabilidade clínica. Os exames associados foram considerados efetivos na detecção de lesões de cárie na superfície oclusal de molares decíduos in vivo e in vitro.
Resumo:
Sistemas de visão artificial são cada vez mais usados para auxiliar seres humanos em diferentes tarefas. Estes sistemas são capazes de reconhecer padrões previamente ensinados em uma imagem complexa. A leitura automática é uma das mais atraentes tarefas nesta área [1], sendo que uma máquina com esta capacidade pode reconhecer objetos que possuam caracteres em sua identificação. Na área de trânsito, a identificação de veículos através da leitura de sua placa de licença vem conquistando cada vez mais espaço. No início dos anos cinqüenta, este conceito era usado para estudar o tempo de duração de viagens entre origem e destino. Os primeiros métodos utilizados eram baseados em observadores que anotavam as placas dos veículos e os tempos correspondentes em um papel ou fita gravada. As placas eram manualmente comparadas mais tarde, e os tempos de viagem calculados [2]. O crescente avanço tecnológico tem aumentado substancialmente a precisão e facilidade desta técnica permitindo sua utilização na identificação de veículos infratores e em situação irregular, e no controle de pedágios e estacionamentos pagos Este trabalho envolve o estudo de diversas técnicas de processamento e análise de imagem culminando no desenvolvimento de um sistema capaz de localizar e reconhecer os caracteres contidos numa placa de licença de um veículo. A imagem é previamente analisada por um algoritmo de procura por variações tonais padronizadas de maneira a restringir a área de análise do algoritmo principal do sistema. Este, por sua vez, binariza a imagem através de um algoritmo adaptativo e busca elementos que possuam dimensões próximas às dimensões esperadas dos caracteres da placa. O sistema busca encontrar uma seqüência de caracteres de dimensões aproximadamente iguais e para isso, varia um valor de limiar no processo de binarização conferindo maior robustez ao algoritmo. Uma vez encontrado um grupo de dígitos que satisfaçam alguns critérios prédefinidos, os caracteres são redimensionados e apresentados a duas redes neurais, uma para as letras e outra para os números.
Resumo:
O interesse da Medicina Veterinária nas espécies silvestres tem aumentado gradativamente, principalmente no estudo dos contextos ecológicos de saúde. Dentro desse contexto, autores realizaram estudos com o objetivo de conhecer a importância de Salmonella sp. na saúde das aves silvestres e seu potencial de transmissão para humanos e outros animais. Informações sobre a prevalência e distribuição dos sorovares de salmonelas na população de animais silvestres e domésticos são essenciais para relacionar os possíveis reservatórios que possam ser responsáveis pela transmissão dessa zoonose. Este trabalho teve como objetivo a detecção de Salmonella sp. em psitacídeos clinicamente sadios por Reação em Cadeia da Polimerase (PCR). Foram coletados suabes cloacais de 280 psitacídeos mantidos em cativeiro no Estado do Rio Grande do Sul, pertencentes a treze espécies, provenientes de um zoológico, um criadouro conservacionista e um criadouro comercial. O DNA das amostras foi extraído pelo método de fenol-clorofórmio e examinados pela PCR com a utilização de um par de iniciadores que amplifica um fragmento de 284 pb do gene invA pertencente ao gênero Salmonella, resultando em 37 amostras positivas. Não houve diferença na prevalência de salmonela entre os três plantéis nem entre as 13 espécies analizadas. Não foi possível a detecção desse patógeno pela PCR com iniciadores para a identificação de S. Typhimurium, S. Enteritidis, S. Pullorum e S. Gallinarum, nem através da Técnica Microbiológica Convencional nas amostras detectadas pela PCR genérica, provavelmente devido a maior sensibilidade e especificidade da PCR genérica. De acordo com a revisão bibliográfica realizada, este foi o primeiro trabalho de detecção direta de Salmonella em psitacídeos utilizando a PCR. Os resultados indicaram que aproximadamente 13,2% dos psitacídeos mantidos em cativeiro eram portadores assintomáticos ou eram transientemente infectados pelo gênero Salmonella.
Resumo:
A prestação de serviços tem sido um importante diferencial dentro do cenário competitivo atual. Para empresas de manufatura, um desses serviços de destaque é o atendimento à garantia, o qual deve ser desenhado de forma a maximizar a satisfação do cliente, operando dentro de custos otimizados. Para permitir a alocação mais eficiente de recursos aos serviços de atendimento à garantia, é importante entender o comportamento das falhas do produto durante o período de garantia, o qual depende da confiabilidade do produto, do tempo e intensidade de uso e do volume de vendas. Esta dissertação trata da aplicação e adaptação de um modelo apropriado para a predição de falhas durante o período de garantia. Esse modelo poderá auxiliar as organizações a manter controle sobre o custo do atendimento à garantia, auxiliando na melhoria contínua dos serviços prestados.
Resumo:
Tolerância a falhas é um dos aspectos mais importantes a serem considerados no desenvolvimento de aplicações, especialmente com a participação cada vez maior de sistemas computacionais em áreas vitais da atividade humana. Dentro deste cenário, um dos fatores a serem considerados na persecução deste objetivo é o gerenciamento de atomicidade. Esta propriedade, por sua vez, apresenta duas vertentes principais: o controle de concorrência e a recuperação de estados. Considerando-se a tolerância a falhas e, particularmente, a atomicidade como requisitos com alto grau de recorrência em aplicações, verifica-se a importância de sua reutilização de forma simples e transparente e do estudo de meios de prover tal capacidade. O presente trabalho procurou pesquisar e aplicar meios de produzir soluções reutilizáveis para implementação de programas tolerantes a falhas, mais especificamente de técnicas de controle de atomicidade, utilizando vários paradigmas computacionais. Neste intuito, foram pesquisados mecanismos de introdução de atomicidade em aplicações e suas respectivas demandas, para então extrair critérios de análise dos paradigmas a serem utilizados na implementações das soluções. Buscou-se suporte nestes paradigmas às demandas previamente pesquisadas nos mecanismos de gerenciamento de atomicidade e procurou-se chegar a soluções reutilizáveis mantendo simplicidade de uso, possibilidade de alteração dinâmica, transparência, adaptabilidade e velocidade de desenvolvimento. Devido à existência de uma grande diversidade de situações que requerem diferentes implementações de atomicidade, alguns cenários típicos foram selecionados para aplicação e avaliação das técnicas aqui sugeridas, procurando abranger o maior número possível de possibilidades. Desta maneira, este trabalho comparou situações opostas quanto à concorrência pelos dados, implementando cenários onde ocorrem tanto acesso cooperativo quanto competitivo aos dados. Dentro de cada um dos cenários estudados, buscaram-se situações propícias ao emprego das características dos paradigmas e analisou-se o resultado de sua aplicação quanto aos critérios definidos anteriormente. Várias soluções foram analisadas e comparadas. Além dos mecanismos de gerenciamento de atomicidade, também foram estudados vários paradigmas que pudessem ser empregados na implementação de soluções com alto grau de reutilização e adaptabilidade. As análises e sugestões posteriores às implementações serviram como substrato para conclusões e sugestões sobre a melhor maneira de empregar tais soluções nos cenários atômicos estudados. Com isso, foi possível relacionar características e capacidades de cada paradigma com a melhor situação de demanda de atomicidade na qual os mesmos são aplicáveis, moldando uma linha de soluções que favoreçam sua reutilização. Um dos objetivos mais importantes do trabalho foi, entretanto, observar o funcionamento conjunto destes paradigmas, estudando como os mesmos podem atuar de forma simbiótica e de que forma os conceitos de um paradigma podem complementar os de outro.
Resumo:
Neste trabalho é apresentado o desenvolvimento de um método de análise de falhas, por meio de análise de vibrações, para a bancada de final de linha das transmissões dos tratores linha 5000 da John Deere Brasil, o qual tem como finalidade diferenciar transmissões aprovadas de transmissões com defeito em engrenagens na caixa de marchas, e também auxiliar na identificação da engrenagem com defeito. Para o desenvolvimento deste método foram utilizados equipamentos de medição e aquisição de dados disponíveis na John Deere Brasil. Os testes foram realizados na bancada de final da linha de transmissões, possibilitando a aplicação do método sem a necessidade de alteração na bancada de testes. Os sinais padrões da transmissão em cada uma das quatro marchas foram levantados através da medição de quatro transmissões boas. De posse destes padrões, (assinatura em cada marcha), partiu-se para a identificação de como estes são alterados por diferentes defeitos em diversas engrenagens da caixa de marchas, sendo para isto induzidos defeitos em diferentes engrenagens da caixa de marchas de transmissões boas. Os sinais em todas as marchas nestas transmissões com defeito induzido foram medidos e analisado as alterações em relação aos padrões, resultando a conclusão de que a aplicação do método de análise de vibrações no final de linha de transmissões da John Deere Brasil é possível, tanto para a diferenciação entre transmissões boas e transmissões com defeito em engrenagens da caixa de marchas, quanto como auxiliar na identificação de qual engrenagem da caixa de marchas está com defeito.
Resumo:
Nucleotídeos extracelulares são envolvidos em diversos processos patofisiológicos no sistema nervoso central. Astrócitos são a maior fonte de nucleotídeos extracelulares da adenina no cérebro e também importantes alvos para as ações desses nucleotídeos via receptores purinérgicos P2. As ações induzidas pela sinalização purinérgica são reguladas pelas ecto-nucleotidases, que incluem membros da família das ecto-nucleosídeo trifosfato difosfoidrolase (E-NTPDase), ecto-5’-nucleotidase (ecto- 5’N) e ecto-adenosina deaminase (ADA). Culturas de astrócitos preparadas de hipocampo, córtex e cerebelo de ratos foram capazes de rapidamente converter ATP extracelular a ADP, que foi então hidrolizado a AMP. Os nucleosídeos tri-fosfatados foram hidrolisados preferencialmente aos difosfatados em todas as estruturas cerebrais. A análise cinética sugere que varias ecto-nucleotidases estão envolvidas nessa cascata enzimática. Análises preliminares de mRNA por PCR indicaram que astrócitos expressam múltiplos membros da família das NTPDases (NTPDase1 a NTPDase3 e NTPDase5/6). Por RT-PCR quantitativo (Real-time PCR), nós identificamos a NTPDase2 (CD39L1) como a NTPDase predominante expressa por astrócitos de hipocampo, córtex e cerebelo de ratos. Astrócitos do cerebelo apresentaram um padrão diferente para a hidrólise do AMP, com uma atividade específica 7 vezes maior, quando comparada com astrócitos de hipocampo e córtex. Uma maior expressão da ecto-5’N por RT-PCR foi identificada nessa estrutura. Não houve acúmulo de adenosina extracelular em todas as estruturas estudadas, indicando a presença de uma alta atividade ecto-adenosina deaminase em astrócitos. Dipiridamol aumentou significativamente os níveis de inosina no meio extracelular de astrócitos de hipocampo e córtex, mas não em astrócitos de cerebelo. Essas diferenças observadas podem indicar heterogeneidade funcional dos nucleotídeos no cérebro. Com o objetivo de investigar as enzimas envolvidas no catabolismo dos nucleotídeos como indicadoras da invasividade e agressividade dos gliomas malignos, nós avaliamos a degradação dos nucleotídeos extracelulares em cinco linhagens de gliomas diferentes e comparamos com astrócitos. Todas as linhagens de gliomas examinadas apresentaram baixas razões de hidrólise quando comparadas com astrócitos. Resultados preliminares sugerem que a falta de expressão da NTPDase1 e 2 possam ser responsáveis pela baixa hidrólise de ATP nas linhagens de gliomas. Considerando que o ATP é reconhecido como um fator mitogênico que induz a proliferação em células de gliomas, a substancial diminuição na hidrólise de ATP e ADP observadas em gliomas, sugere que alterações na via das ecto-nucleotidases pode representar um importante mecanismo associado com a transformação maligna desse tipo de tumor.
Resumo:
O presente trabalho realiza uma validação experimental, através da técnica de injeção de falhas por software, de sistemas de informações que utilizam gerenciadores de banco de dados distribuídos comerciais. Estes experimentos visam a obtenção de medidas da dependabilidade do SGBD utilizado, levantamento do custo de seus mecanismos de tolerância a falhas e a real aplicabilidade de SGBDs comerciais em sistemas de missão crítica. Procurou-se avaliar e validar as ferramentas de injeção de falhas utilizadas, no caso específico deste trabalho a ComFIRM e o FIDe. Inicialmente são introduzidos e reforçados os conceitos básicos sobre o tema, que serão utilizados no decorrer do trabalho. Em seguida são apresentadas algumas ferramentas de injeção de falhas em sistemas distribuídos, bem como os modelos de falhas em banco de dados distribuídos. São analisados alguns estudos de aplicação de ferramentas de injeção de falhas em bancos de dados distribuídos. Concluída a revisão bibliográfica é apresentado o modelo de software e hardware que foi implementado, destacando o gerador de cargas de trabalho GerPro-TPC e o gerenciador de injeções e resultados GIR. O GerPro-TPC segue as especificações TPC-c para a simulação de um ambiente transacional comercial padrão e o GIR realiza a integração das ferramentas de injeção de falhas utilizadas, bem como a elaboração do cenário de falhas a injetar e a coleta dos resultados das falhas injetadas. Finalmente são descritos os experimentos realizados sobre o SGBD PROGRESS. São realizados 361 testes de injeções de falhas com aproximadamente 43.000 falhas injetadas em experimentos distintos. Utiliza-se dois modelos de falhas: um focado em falhas de comunicação e outro em falhas de hardware. Os erros resultantes das falhas injetadas foram classificados em erros ignorados/mascarados, erros leves, erros graves e erros catastróficos. Dos modelos de falhas utilizados as que mais comprometeram a dependabilidade do SGBD foram as falhas de hardware. As falhas de comunicação somente comprometeram a disponibilidade do sistema alvo.
Resumo:
São analisados 106 pacientes submetidos a localização estereotáctica. Os procedimentos variaram de biópsias cerebrais, orientação de craniotomias, colocação de cateter em cavidade tumoral, drenagem de hematoma intracerebral e drenagem de abscesso cerebral. As orientações de craniotomias foram para MAVs, tumores e processos inflamatórios, em 21 pacientes. As biópsias cerebrais estereotácticas para diagnóstico anatomopatológico apresentaram um índice de positividade de 87,50 % com complicações em 1,20 %, em 82 casos. São analisadas estatisticamente as variáveis como: idade, sexo, procedimento realizado, diagnóstico anatomopatológico e volume das lesões. É discutida a imprecisão na aquisição e cálculo das coordenadas estereotácticas com a TC do encéfalo e verificada a precisão do método estereotomográfico com a utilização de um phanton. O maior erro das coordenadas foi de 6,8 mm.
Resumo:
Um dos principais fatores que determinam o baixo desempenho das avaliações está relacionado à omissão de importantes atributos nos processos avaliatórios. A seleção de bens comparáveis ao imóvel avaliando e o reconhecimento das variáveis que devem participar do modelo avaliatório são fatores determinantes no resultado das avaliações. Falhas na interpretação destes aspectos, bem como o limitado conhecimento quanto à forma de interação dos atributos na formação do valor dos imóveis, tendem a gerar distorções nas estimativas de valor obtidas. Para minimizar os erros e reduzir a imprecisão dos trabalhos, é imprescindível saber quais atributos contribuem para a formação do valor dos imóveis. O presente trabalho objetiva aumentar a compreensão dos atributos que influenciam a decisão de compra dos apartamentos residenciais através da análise das preferências dos consumidores. O estudo visa verificar se parte da imprecisão dos trabalhos avaliatórios é causada pelo desconhecimento parcial destes atributos por parte dos avaliadores Para tanto, realizou-se uma pesquisa de caráter exploratório, cujos instrumentos de levantamento de dados são questionários, aplicados para verificar e comparar a importância atribuída a um extenso número de atributos por dois grupos distintos, formados por avaliadores de imóveis e compradores. Os resultados obtidos indicam que os atributos usualmente empregados na prática avaliatória não são, em sua grande maioria, aqueles que influenciam a decisão de compra no processo de aquisição dos imóveis. Além disso, apesar de existir coerência na interpretação dos avaliadores sobre a contribuição de uma série de atributos para a formação do valor de mercado dos imóveis, foram identificadas distorções na forma como estes profissionais percebem a importância de alguns atributos, havendo, por exemplo, uma supervalorização de aspectos relativos à localização e segurança Por outro lado, os avaliadores não distinguem a elevada influência de alguns atributos no processo de decisão de compra, tais como existência de elevador e gás central, áreas de serviço maiores e idoneidade da empresa que construiu o imóvel. Embora o trabalho não apresente resultados plenamente conclusivos neste sentido, pode-se dizer que há um forte indicativo de que o nível de imprecisão das avaliações imobiliárias possa ser reduzido através de uma maior compreensão das preferências dos consumidores.
Resumo:
No intuito de validar seus projetos de sistemas integrados, o Grupo de Microeletrônica da UFRGS tem investido na inserção de estruturas de teste nos núcleos de hardware que tem desenvolvido. Um exemplo de tal tipo de sistema é a “caneta tradutora”, especificada e parcialmente desenvolvida por Denis Franco. Esta caneta se utiliza de um microcontrolador 8051 descrito em VHDL, o qual ainda carece de estruturas dedicadas com funções orientadas à testabilidade. Este trabalho exemplifica a integração de teste em um circuito eletrônico préprojetado. Neste caso específico, foi utilizado o microcontrolador 8051 fonte compatível que será inserido no contexto da caneta tradutora. O método utilizado apoiou-se na norma IEEE1149.1, destinada a definir uma infra-estrutura baseada na técnica do boundary scan para o teste de placas de circuito impresso. São apresentadas características de testabilidade desenvolvidas para o microcontrolador, utilizando-se a técnica do boundary scan em sua periferia e a técnica do scan path em seu núcleo. A inserção destas características de teste facilita a depuração e testes em nível de sistema, imaginando-se o sistema como algo maior, fazendo parte do sistema da caneta tradutora como um todo. São elaborados exemplos de testes, demonstrando a funcionalidade do circuito de teste inserido neste núcleo e a possibilidade de detecção de falhas em pontos distintos do sistema. Finalmente, avalia-se o custo associado à integração desta infra-estrutura de teste, tanto em termos de acréscimo de área em silício, quanto em termos de degradação de desempenho do sistema.
Resumo:
O estudo a seguir apresenta o efeito do processo de desenvolvimento sobre a atenção visual em crianças e adolescentes. Verifica a existência de diferenças no tempo de reação manual a estímulos visuais apresentados no campo visual direito (hemisfério esquerdo) e campo visual esquerdo (hemisfério direito) entre crianças e adolescentes de ambos os sexos, observando se há maior lateralização da atenção no sexo feminino durante o desenvolvimento (lateralização da atenção). Observa-se, concomitantemente, a existência de diferenças no tempo de reação a estímulos visuais entre adolescentes masculinos em relação a adolescentes femininos, bem como diferenças no tempo de reação a estímulos visuais em crianças do sexo masculino em relação às crianças do sexo feminino. Realiza-se a aplicação de três experimentos em 60 sujeitos, sendo 30 crianças e 30 adolescentes de ambos os sexos. Os experimentos utilizados foram de detecção de sinais, medindo o tempo de resposta em milisegundos, quando os estímulos eram apresentados na tela de um computador em diferentes intervalos de tempo. Os experimentos diferenciam-se entre si pela presença ou não de estímulos preparatórios e pela indicação da localização ou não do estímulo alvo a ser detectado.Os resultados globais evidenciam uma maior rapidez nas tarefas de tempo de reação no período da adolescência do que no período da infância Na adolescência, os jovens do sexo masculino apresentam um tempo de reação mais reduzido (foram mais rápidos) do que as jovens do sexo feminino em todos os experimentos e sob quaisquer condições. Na infância, os resultados dos testes de tempo de reação manual não evidenciam diferenças entre os meninos e as meninas nos três experimentos realizados e em todas as circunstâncias. Não se encontram, nessa amostra, diferenças em relação à lateralização da atenção nem uma maior especialização do hemisfério direito em relação ao hemisfério esquerdo no sexo feminino.
Resumo:
Uma aplicação distribuída freqüentemente tem que ser especificada e implementada para executar sobre uma rede de longa distância (wide-área network-WAN), tipicamente a Internet. Neste ambiente, tais aplicações são sujeitas a defeitos do tipo colapso(falha geral num dado nó), teporização (flutuações na latência de comunicação) e omissão (perdas de mensagens). Para evitar que este defeitos gerem comseqüências indesejáveis e irreparáveis na aplicação, explora-se técnicas para tolerá-los. A abstração de detectores de defeitos não confiáveis auxilia a especificação e trato de algoritmos distribuídos utilizados em sistemas tolerantes a falhas, pois permite uma modelagem baseada na noção de estado (suspeito ou não suspeito) dos componentes (objetos, processo ou processadores) da aplicação. Para garantir terminação, os algoritmos de detecção de defeitos costumam utilizar a noção de limites de tempo de espera (timeout). Adicionalmente, para minimizar seu erro (falasas suspeitas) e não comprometer seu desempenho (tempo para detecção de um defeito), alguns detectores de defeitos ajustam dinamicamente o timeout com base em previsões do atraso de comunicação. Esta tese explora o ajuste dinâmico do timeout realizado de acordo com métodos de previsão baseados na teoria de séries temporais. Tais métodos supõem uma amostragem periódica e fornececm estimativas relativamente confiáveis do comportamento futuro da variável aleatória. Neste trabalho é especificado uma interface para transformar uma amostragem aperiódica do atraso de ida e volta de uma mensagem (rtt) numa amostragem periódica, é analisado comportamento de séries reais do rtt e a precisão dee sete preditores distintos (três baseados em séries temporais e quatrro não), e é avaliado a influência destes preditores na qualidade de serviço de um detector de defeitos do estilopull. Uma arquitetura orientada a objetos que possibilita a escolha/troca de algoritmos de previsão e de margem de segurança é também proposta. Como resultado, esta tese mostra: (i) que embora a amostragem do rtt seja aperiódica, pode-se modelá-la como sendo uma série temporal (uma amostragem periódica) aplciando uma interface de transformação; (ii) que a série temporal rtt é não estacionária na maioria dos casos de teste, contradizendo a maioria das hipóteses comumente consideradas em detectores de defeitos; (iii) que dentre sete modelos de predição, o modelo ARIMA (autoregressive integrated moving-average model) é o que oferece a melhor precisão na predição de atrasos de comunicação, em termos do erro quadrático médio: (iv) que o impacto de preditores baseados em séries temporais na qualidade de serviço do detector de defeitos não significativo em relação a modelos bem mais simples, mas varia dependendo da margem de segurança adotada; e (v) que um serviço de detecção de defeitos pode possibilitar a fácil escolha de algoritmos de previsão e de margens de segurança, pois o preditor pode ser modelado como sendo um módulo dissociado do detector.