80 resultados para Detecção e localização de falhas
Resumo:
O modelo de objetos apresenta-se como um modelo promissor para o desenvolvimento de software tolerante a falhas em virtude de características inerentes ao próprio modelo de objetos, tais como abstração de dados, encapsulamento, herança e reutilização de objetos (componentes). O uso de técnicas orientadas a objetos facilita o controle da complexidade do sistema porque promove uma melhor estruturação de seus componentes e também permite que componentes já validados sejam reutilizados [LIS96]. Técnicas básicas para tolerância a falhas em software baseiam-se na diversidade de projeto e de implementação de componentes considerados críticos. Os componentes diversitários são gerenciados através de alguma técnica que tenha por objetivo assegurar o fornecimento do serviço solicitado, como, por exemplo, a conhecida técnica de blocos de recuperação. Reflexão Computacional é a capacidade que um sistema tem de fazer computações para se auto analisar. Ela é obtida quando o programa pára sua execução por um período de tempo para fazer computações sobre si próprio; analisa seu estado, se o processamento está correto, se pode prosseguir com a execução e atingir o objetivo satisfatoriamente; se não precisa mudar de estratégia ou algoritmo de execução, fazendo, ainda, processamentos necessários para o sucesso da execução. Um sistema de programação distribuída consiste basicamente em vários aplicativos executados em diferentes computadores, os quais realizam troca de mensagens para solucionar um problema comum. A comunicação entre os computadores é realizada através da rede que os interliga. As Redes que controlam sistemas críticos são normalmente de pequena escala pois redes de grandes dimensões podem apresentar atrasos e baixa confiabilidade. Portanto, a abordagem aqui proposta consiste em utilizar, em um ambiente distribuído, uma arquitetura reflexiva aliada a técnicas do domínio da tolerância a falhas para promover a separação entre as atividades de controle, salvamento, recuperação, distribuição e validação de componentes e as funcionalidades executadas pelo próprio componente, a fim de que falhas não venham a prejudicar a disponibilidade, confiabilidade e clareza de determinadas computações. A proposta apóia-se num estudo de caso, implementado na linguagem de programação Java, com seus protocolos de reflexão computacional e de comunicação.
Resumo:
Um dos modos de avaliar a confiabilidade de um produto é verificando o comportamento das falhas em testes de uso contínuo. Contudo, essa informação não permite saber em que data a falha ocorrerá. Para resolver esse impasse abordamos na presente dissertação a modelagem dos tempos de falha ao longo do calendário. A modelagem desses tempos permite uma melhor administração do sistema de garantia e assistência técnica, além de possibilitar a empresa estimar e monitorar a confiabilidade do produto. Para proceder com a modelagem, é preciso, inicialmente, conhecer a distribuição de três variáveis: o tempo de vida do produto, em horas de uso contínuo; o tempo de uso do produto, em horas por dia; e o intervalo de tempo entre a manufatura e a venda, em dias. Conhecendo o comportamento dessa variáveis duas alternativas de solução são apresentadas: (a) Modelagem via simulação de Monte Carlo e (b) Modelagem através de solução matemática fechada. São discutidos os casos em que há um ou vários grupos de clientes que utilizam o produto.
Resumo:
Neste trabalho apresentam-se pocedimentos para análise não linear de estruturas de materiais compostos laminados reforçados por fibras. A formulação é baseada em uma descrição cinemática incremental Lagrangeana Total, que permite o tratamento de deslocamentos arbitrariamente grandes com pequenas deformações, utilizando elementos finitos tridimensionais degenerados deduzidos para a análise de cascas. As estruturas são consideradas como submetidas a cargas mecânicas e a ações de temperatura e de umidade. O material é suposto elástico linear com propriedades dependentes, ou não, dos valores da temperatura e da concentração de umidade, ou viscoelástico linear com uma relação constitutiva em integral hereditária , e com comportamento higrotermo-reologicamente simples. As lâminas são consideradas como sujeitas a falhas, as quais são detectadas através de critérios macroscópicos, baseados em tensões ou em deformações. As equações não lineares de equilíbrio são resolvidas através de procedimentos iterativos e as deformações dependentes do tempo são avaliadas pelo método das variáveis de estado. Diversos exemplos numéricos de estruturas submetidas à flexão, flambagem elástica e viscoelástica e falhas são apresentados.
Resumo:
O objetivo do presente estudo foi comparar os diagnósticos de lesões de cárie oclusal de molares decíduos obtidos in vivo e in vitro, a partir da inspeção visual associada à radiografia interproximal e avaliar in vivo e in vitro a efetividade destes exames para a detecção de lesões de cárie na superfície oclusal de molares decíduos. A amostra foi constituída de 52 molares decíduos superiores e inferiores. Os pacientes foram radiografados com posicionadores que possuíam os registros das mordidas em acrílico dos dentes posteriores aos dentes que seriam examinados. Moldagens dos hemiarcos foram obtidas com silicona de adição. O exame visual associado ao radiográfico da superfície oclusal dos molares decíduos foi realizado. Os dentes foram extraídos e posicionados nas moldagens para obtenção de modelos de gesso simulando as condições in vivo. Os posicionadores com as mordidas em acrílico foram novamente utilizados para as radiografias in vitro. O exame clínico associado ao radiográfico foi repetido in vitro pelo mesmo examinador, depois de em média 120 dias. Os dentes foram avaliados no estereomicroscópio para a obtenção dos diagnósticos definitivos. Através do teste de Wilcoxon, não foram observadas diferenças estatisticamente significantes entre os exames in vivo e in vitro (p = 0,356). Nas análises de todas as lesões, a sensibilidade foi de 0,95 in vivo e in vitro e a especificidade foi de 0,75 in vivo e 1 in vitro. Quando apenas as lesões em dentina foram validadas, a sensibilidade foi de 0,80 in vivo e in vitro e a especificidade foi de 0,77 in vivo e 0,83 in vitro. Assim, os resultados confirmam que os estudos de diagnóstico de cárie em condições laboratoriais são viáveis e possuem aplicabilidade clínica. Os exames associados foram considerados efetivos na detecção de lesões de cárie na superfície oclusal de molares decíduos in vivo e in vitro.
Resumo:
Sistemas de visão artificial são cada vez mais usados para auxiliar seres humanos em diferentes tarefas. Estes sistemas são capazes de reconhecer padrões previamente ensinados em uma imagem complexa. A leitura automática é uma das mais atraentes tarefas nesta área [1], sendo que uma máquina com esta capacidade pode reconhecer objetos que possuam caracteres em sua identificação. Na área de trânsito, a identificação de veículos através da leitura de sua placa de licença vem conquistando cada vez mais espaço. No início dos anos cinqüenta, este conceito era usado para estudar o tempo de duração de viagens entre origem e destino. Os primeiros métodos utilizados eram baseados em observadores que anotavam as placas dos veículos e os tempos correspondentes em um papel ou fita gravada. As placas eram manualmente comparadas mais tarde, e os tempos de viagem calculados [2]. O crescente avanço tecnológico tem aumentado substancialmente a precisão e facilidade desta técnica permitindo sua utilização na identificação de veículos infratores e em situação irregular, e no controle de pedágios e estacionamentos pagos Este trabalho envolve o estudo de diversas técnicas de processamento e análise de imagem culminando no desenvolvimento de um sistema capaz de localizar e reconhecer os caracteres contidos numa placa de licença de um veículo. A imagem é previamente analisada por um algoritmo de procura por variações tonais padronizadas de maneira a restringir a área de análise do algoritmo principal do sistema. Este, por sua vez, binariza a imagem através de um algoritmo adaptativo e busca elementos que possuam dimensões próximas às dimensões esperadas dos caracteres da placa. O sistema busca encontrar uma seqüência de caracteres de dimensões aproximadamente iguais e para isso, varia um valor de limiar no processo de binarização conferindo maior robustez ao algoritmo. Uma vez encontrado um grupo de dígitos que satisfaçam alguns critérios prédefinidos, os caracteres são redimensionados e apresentados a duas redes neurais, uma para as letras e outra para os números.
Resumo:
O interesse da Medicina Veterinária nas espécies silvestres tem aumentado gradativamente, principalmente no estudo dos contextos ecológicos de saúde. Dentro desse contexto, autores realizaram estudos com o objetivo de conhecer a importância de Salmonella sp. na saúde das aves silvestres e seu potencial de transmissão para humanos e outros animais. Informações sobre a prevalência e distribuição dos sorovares de salmonelas na população de animais silvestres e domésticos são essenciais para relacionar os possíveis reservatórios que possam ser responsáveis pela transmissão dessa zoonose. Este trabalho teve como objetivo a detecção de Salmonella sp. em psitacídeos clinicamente sadios por Reação em Cadeia da Polimerase (PCR). Foram coletados suabes cloacais de 280 psitacídeos mantidos em cativeiro no Estado do Rio Grande do Sul, pertencentes a treze espécies, provenientes de um zoológico, um criadouro conservacionista e um criadouro comercial. O DNA das amostras foi extraído pelo método de fenol-clorofórmio e examinados pela PCR com a utilização de um par de iniciadores que amplifica um fragmento de 284 pb do gene invA pertencente ao gênero Salmonella, resultando em 37 amostras positivas. Não houve diferença na prevalência de salmonela entre os três plantéis nem entre as 13 espécies analizadas. Não foi possível a detecção desse patógeno pela PCR com iniciadores para a identificação de S. Typhimurium, S. Enteritidis, S. Pullorum e S. Gallinarum, nem através da Técnica Microbiológica Convencional nas amostras detectadas pela PCR genérica, provavelmente devido a maior sensibilidade e especificidade da PCR genérica. De acordo com a revisão bibliográfica realizada, este foi o primeiro trabalho de detecção direta de Salmonella em psitacídeos utilizando a PCR. Os resultados indicaram que aproximadamente 13,2% dos psitacídeos mantidos em cativeiro eram portadores assintomáticos ou eram transientemente infectados pelo gênero Salmonella.
Resumo:
A prestação de serviços tem sido um importante diferencial dentro do cenário competitivo atual. Para empresas de manufatura, um desses serviços de destaque é o atendimento à garantia, o qual deve ser desenhado de forma a maximizar a satisfação do cliente, operando dentro de custos otimizados. Para permitir a alocação mais eficiente de recursos aos serviços de atendimento à garantia, é importante entender o comportamento das falhas do produto durante o período de garantia, o qual depende da confiabilidade do produto, do tempo e intensidade de uso e do volume de vendas. Esta dissertação trata da aplicação e adaptação de um modelo apropriado para a predição de falhas durante o período de garantia. Esse modelo poderá auxiliar as organizações a manter controle sobre o custo do atendimento à garantia, auxiliando na melhoria contínua dos serviços prestados.
Resumo:
Tolerância a falhas é um dos aspectos mais importantes a serem considerados no desenvolvimento de aplicações, especialmente com a participação cada vez maior de sistemas computacionais em áreas vitais da atividade humana. Dentro deste cenário, um dos fatores a serem considerados na persecução deste objetivo é o gerenciamento de atomicidade. Esta propriedade, por sua vez, apresenta duas vertentes principais: o controle de concorrência e a recuperação de estados. Considerando-se a tolerância a falhas e, particularmente, a atomicidade como requisitos com alto grau de recorrência em aplicações, verifica-se a importância de sua reutilização de forma simples e transparente e do estudo de meios de prover tal capacidade. O presente trabalho procurou pesquisar e aplicar meios de produzir soluções reutilizáveis para implementação de programas tolerantes a falhas, mais especificamente de técnicas de controle de atomicidade, utilizando vários paradigmas computacionais. Neste intuito, foram pesquisados mecanismos de introdução de atomicidade em aplicações e suas respectivas demandas, para então extrair critérios de análise dos paradigmas a serem utilizados na implementações das soluções. Buscou-se suporte nestes paradigmas às demandas previamente pesquisadas nos mecanismos de gerenciamento de atomicidade e procurou-se chegar a soluções reutilizáveis mantendo simplicidade de uso, possibilidade de alteração dinâmica, transparência, adaptabilidade e velocidade de desenvolvimento. Devido à existência de uma grande diversidade de situações que requerem diferentes implementações de atomicidade, alguns cenários típicos foram selecionados para aplicação e avaliação das técnicas aqui sugeridas, procurando abranger o maior número possível de possibilidades. Desta maneira, este trabalho comparou situações opostas quanto à concorrência pelos dados, implementando cenários onde ocorrem tanto acesso cooperativo quanto competitivo aos dados. Dentro de cada um dos cenários estudados, buscaram-se situações propícias ao emprego das características dos paradigmas e analisou-se o resultado de sua aplicação quanto aos critérios definidos anteriormente. Várias soluções foram analisadas e comparadas. Além dos mecanismos de gerenciamento de atomicidade, também foram estudados vários paradigmas que pudessem ser empregados na implementação de soluções com alto grau de reutilização e adaptabilidade. As análises e sugestões posteriores às implementações serviram como substrato para conclusões e sugestões sobre a melhor maneira de empregar tais soluções nos cenários atômicos estudados. Com isso, foi possível relacionar características e capacidades de cada paradigma com a melhor situação de demanda de atomicidade na qual os mesmos são aplicáveis, moldando uma linha de soluções que favoreçam sua reutilização. Um dos objetivos mais importantes do trabalho foi, entretanto, observar o funcionamento conjunto destes paradigmas, estudando como os mesmos podem atuar de forma simbiótica e de que forma os conceitos de um paradigma podem complementar os de outro.
Resumo:
Neste trabalho é apresentado o desenvolvimento de um método de análise de falhas, por meio de análise de vibrações, para a bancada de final de linha das transmissões dos tratores linha 5000 da John Deere Brasil, o qual tem como finalidade diferenciar transmissões aprovadas de transmissões com defeito em engrenagens na caixa de marchas, e também auxiliar na identificação da engrenagem com defeito. Para o desenvolvimento deste método foram utilizados equipamentos de medição e aquisição de dados disponíveis na John Deere Brasil. Os testes foram realizados na bancada de final da linha de transmissões, possibilitando a aplicação do método sem a necessidade de alteração na bancada de testes. Os sinais padrões da transmissão em cada uma das quatro marchas foram levantados através da medição de quatro transmissões boas. De posse destes padrões, (assinatura em cada marcha), partiu-se para a identificação de como estes são alterados por diferentes defeitos em diversas engrenagens da caixa de marchas, sendo para isto induzidos defeitos em diferentes engrenagens da caixa de marchas de transmissões boas. Os sinais em todas as marchas nestas transmissões com defeito induzido foram medidos e analisado as alterações em relação aos padrões, resultando a conclusão de que a aplicação do método de análise de vibrações no final de linha de transmissões da John Deere Brasil é possível, tanto para a diferenciação entre transmissões boas e transmissões com defeito em engrenagens da caixa de marchas, quanto como auxiliar na identificação de qual engrenagem da caixa de marchas está com defeito.
Resumo:
Nucleotídeos extracelulares são envolvidos em diversos processos patofisiológicos no sistema nervoso central. Astrócitos são a maior fonte de nucleotídeos extracelulares da adenina no cérebro e também importantes alvos para as ações desses nucleotídeos via receptores purinérgicos P2. As ações induzidas pela sinalização purinérgica são reguladas pelas ecto-nucleotidases, que incluem membros da família das ecto-nucleosídeo trifosfato difosfoidrolase (E-NTPDase), ecto-5’-nucleotidase (ecto- 5’N) e ecto-adenosina deaminase (ADA). Culturas de astrócitos preparadas de hipocampo, córtex e cerebelo de ratos foram capazes de rapidamente converter ATP extracelular a ADP, que foi então hidrolizado a AMP. Os nucleosídeos tri-fosfatados foram hidrolisados preferencialmente aos difosfatados em todas as estruturas cerebrais. A análise cinética sugere que varias ecto-nucleotidases estão envolvidas nessa cascata enzimática. Análises preliminares de mRNA por PCR indicaram que astrócitos expressam múltiplos membros da família das NTPDases (NTPDase1 a NTPDase3 e NTPDase5/6). Por RT-PCR quantitativo (Real-time PCR), nós identificamos a NTPDase2 (CD39L1) como a NTPDase predominante expressa por astrócitos de hipocampo, córtex e cerebelo de ratos. Astrócitos do cerebelo apresentaram um padrão diferente para a hidrólise do AMP, com uma atividade específica 7 vezes maior, quando comparada com astrócitos de hipocampo e córtex. Uma maior expressão da ecto-5’N por RT-PCR foi identificada nessa estrutura. Não houve acúmulo de adenosina extracelular em todas as estruturas estudadas, indicando a presença de uma alta atividade ecto-adenosina deaminase em astrócitos. Dipiridamol aumentou significativamente os níveis de inosina no meio extracelular de astrócitos de hipocampo e córtex, mas não em astrócitos de cerebelo. Essas diferenças observadas podem indicar heterogeneidade funcional dos nucleotídeos no cérebro. Com o objetivo de investigar as enzimas envolvidas no catabolismo dos nucleotídeos como indicadoras da invasividade e agressividade dos gliomas malignos, nós avaliamos a degradação dos nucleotídeos extracelulares em cinco linhagens de gliomas diferentes e comparamos com astrócitos. Todas as linhagens de gliomas examinadas apresentaram baixas razões de hidrólise quando comparadas com astrócitos. Resultados preliminares sugerem que a falta de expressão da NTPDase1 e 2 possam ser responsáveis pela baixa hidrólise de ATP nas linhagens de gliomas. Considerando que o ATP é reconhecido como um fator mitogênico que induz a proliferação em células de gliomas, a substancial diminuição na hidrólise de ATP e ADP observadas em gliomas, sugere que alterações na via das ecto-nucleotidases pode representar um importante mecanismo associado com a transformação maligna desse tipo de tumor.
Resumo:
O presente trabalho realiza uma validação experimental, através da técnica de injeção de falhas por software, de sistemas de informações que utilizam gerenciadores de banco de dados distribuídos comerciais. Estes experimentos visam a obtenção de medidas da dependabilidade do SGBD utilizado, levantamento do custo de seus mecanismos de tolerância a falhas e a real aplicabilidade de SGBDs comerciais em sistemas de missão crítica. Procurou-se avaliar e validar as ferramentas de injeção de falhas utilizadas, no caso específico deste trabalho a ComFIRM e o FIDe. Inicialmente são introduzidos e reforçados os conceitos básicos sobre o tema, que serão utilizados no decorrer do trabalho. Em seguida são apresentadas algumas ferramentas de injeção de falhas em sistemas distribuídos, bem como os modelos de falhas em banco de dados distribuídos. São analisados alguns estudos de aplicação de ferramentas de injeção de falhas em bancos de dados distribuídos. Concluída a revisão bibliográfica é apresentado o modelo de software e hardware que foi implementado, destacando o gerador de cargas de trabalho GerPro-TPC e o gerenciador de injeções e resultados GIR. O GerPro-TPC segue as especificações TPC-c para a simulação de um ambiente transacional comercial padrão e o GIR realiza a integração das ferramentas de injeção de falhas utilizadas, bem como a elaboração do cenário de falhas a injetar e a coleta dos resultados das falhas injetadas. Finalmente são descritos os experimentos realizados sobre o SGBD PROGRESS. São realizados 361 testes de injeções de falhas com aproximadamente 43.000 falhas injetadas em experimentos distintos. Utiliza-se dois modelos de falhas: um focado em falhas de comunicação e outro em falhas de hardware. Os erros resultantes das falhas injetadas foram classificados em erros ignorados/mascarados, erros leves, erros graves e erros catastróficos. Dos modelos de falhas utilizados as que mais comprometeram a dependabilidade do SGBD foram as falhas de hardware. As falhas de comunicação somente comprometeram a disponibilidade do sistema alvo.
Resumo:
São analisados 106 pacientes submetidos a localização estereotáctica. Os procedimentos variaram de biópsias cerebrais, orientação de craniotomias, colocação de cateter em cavidade tumoral, drenagem de hematoma intracerebral e drenagem de abscesso cerebral. As orientações de craniotomias foram para MAVs, tumores e processos inflamatórios, em 21 pacientes. As biópsias cerebrais estereotácticas para diagnóstico anatomopatológico apresentaram um índice de positividade de 87,50 % com complicações em 1,20 %, em 82 casos. São analisadas estatisticamente as variáveis como: idade, sexo, procedimento realizado, diagnóstico anatomopatológico e volume das lesões. É discutida a imprecisão na aquisição e cálculo das coordenadas estereotácticas com a TC do encéfalo e verificada a precisão do método estereotomográfico com a utilização de um phanton. O maior erro das coordenadas foi de 6,8 mm.