998 resultados para Detecção : Falhas


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Alta disponibilidade é uma das propriedades mais desejáveis em sistemas computacionais, principalmente em aplicações comerciais que, tipicamente, envolvem acesso a banco de dados e usam transações. Essas aplicações compreendem sistemas bancários e de comércio eletrônico, onde a indisponibilidade de um serviço pode representar substanciais perdas financeiras. Alta disponibilidade pode ser alcançada através de replicação. Se uma das réplicas não está operacional, outra possibilita que determinado serviço seja oferecido. No entanto, réplicas requerem protocolos que assegurem consistência de estado. Comunicação de grupo é uma abstração que tem sido aplicada com eficiência a sistemas distribuídos para implementar protocolos de replicação. Sua aplicação a sistemas práticos com transações e com banco de dados não é comum. Tipicamente, sistemas transacionais usam soluções ad hoc e sincronizam réplicas com protocolos centralizados, que são bloqueantes e, por isso, não asseguram alta disponibilidade. A tecnologia baseada em componentes Enterprise JavaBeans (EJB) é um exemplo de sistema prático que integra distribuição, transações e bancos de dados. Em uma aplicação EJB, o desenvolvedor codifica o serviço funcional que é dependente da aplicação, e os serviços não–funcionais são inseridos automaticamente. A especificação EJB descreve serviços não–funcionais de segurança, de transações e de persistência para bancos de dados, mas não descreve serviços que garantam alta disponibilidade. Neste trabalho, alta disponibilidade é oferecida como uma nova propriedade através da adição de serviços não–funcionais na tecnologia EJB usando abstrações de comunicação de grupo. Os serviços para alta disponibilidade são oferecidos através da arquitetura HA (highly-available architecture) que possui múltiplas camadas. Esses serviços incluem replicação, chaveamento de servidor, gerenciamento de membros do grupo e detecção de membros falhos do grupo. A arquitetura HA baseia-se nos serviços já descritos pela especificação EJB e preserva os serviços EJB existentes. O protocolo de replicação corresponde a uma subcamada, invisível para o usuário final. O serviço EJB é executado por membros em um grupo de réplicas, permitindo a existência de múltiplos bancos de dados idênticos. Conflitos de acesso aos múltiplos bancos de dados são tratados estabelecendo–se uma ordem total para aplicação das atualizações das transações. Esse grupo é modelado como um único componente e gerenciado por um sistema de comunicação de grupo. A combinação de conceitos de bancos de dados com comunicação de grupo demonstra uma interessante solução para aplicações com requisitos de alta disponibilidade, como as aplicações EJB. Os serviços adicionais da arquitetura HA foram implementados em protótipo. A validação através de um protótipo possibilita que experimentos sejam realizados dentro de um ambiente controlado, usando diferentes cargas de trabalho sintéticas. O protótipo combina dois sistemas de código aberto. Essa característica permitiu acesso à implementação e não somente à interface dos componentes dos sistemas em questão. Um dos sistemas implementa a especificação EJB e outro implementa o sistema de comunicação de grupos. Os resultados dos testes realizados com o protótipo mostraram a eficiência da solução proposta. A degradação de desempenho pelo uso de réplicas e da comunicação de grupo é mantida em valores adequados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This thesis presents the study and development of fault-tolerant techniques for programmable architectures, the well-known Field Programmable Gate Arrays (FPGAs), customizable by SRAM. FPGAs are becoming more valuable for space applications because of the high density, high performance, reduced development cost and re-programmability. In particular, SRAM-based FPGAs are very valuable for remote missions because of the possibility of being reprogrammed by the user as many times as necessary in a very short period. SRAM-based FPGA and micro-controllers represent a wide range of components in space applications, and as a result will be the focus of this work, more specifically the Virtex® family from Xilinx and the architecture of the 8051 micro-controller from Intel. The Triple Modular Redundancy (TMR) with voters is a common high-level technique to protect ASICs against single event upset (SEU) and it can also be applied to FPGAs. The TMR technique was first tested in the Virtex® FPGA architecture by using a small design based on counters. Faults were injected in all sensitive parts of the FPGA and a detailed analysis of the effect of a fault in a TMR design synthesized in the Virtex® platform was performed. Results from fault injection and from a radiation ground test facility showed the efficiency of the TMR for the related case study circuit. Although TMR has showed a high reliability, this technique presents some limitations, such as area overhead, three times more input and output pins and, consequently, a significant increase in power dissipation. Aiming to reduce TMR costs and improve reliability, an innovative high-level technique for designing fault-tolerant systems in SRAM-based FPGAs was developed, without modification in the FPGA architecture. This technique combines time and hardware redundancy to reduce overhead and to ensure reliability. It is based on duplication with comparison and concurrent error detection. The new technique proposed in this work was specifically developed for FPGAs to cope with transient faults in the user combinational and sequential logic, while also reducing pin count, area and power dissipation. The methodology was validated by fault injection experiments in an emulation board. The thesis presents comparison results in fault coverage, area and performance between the discussed techniques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O vírus da anemia das galinhas (CAV) pode causar imunodepressão em galinhas de todas as idades e doença nos frangos jovens, a qual é caracterizada por severa anemia, atrofia da medula óssea e hemorragias. A doença clínica é rara hoje, porém a forma subclínica é freqüentemente encontrada em criações comerciais e resulta num considerável decréscimo do desempenho. O CAV apresenta variabilidade genética, entretanto, em relação às amostras brasileiras do CAV, pouco ou quase nada desta variabilidade é conhecida. O presente trabalho descreve um protocolo de Nested-PCR para a detecção do CAV diretamente de amostras clínicas e analisa filogeneticamente as seqüências nucleotídicas das amostras positivas buscando verificar se a patologia apresentada por estas está relacionada com a variabilidade genética. Para a extração de DNA, o método baseado em tiocianato de guanidina mostrou-se mais eficiente e prático de executar que os demais testados. Foi selecionado um par de primers que amplifica uma região de 664 pb do gene vp1 e outro par que amplifica uma região interna de 539 pb para a realização da Nested-PCR. A especificidade dos primers foi avaliada utilizando amostras de lotes controlados para CAV e 30 diferentes isolados de vírus e bactérias causadoras de doenças em galinhas, as quais não geraram produto de amplificação. A sensibilidade foi determinada a partir de diluições seriadas da vacina comercial para o CAV. A Nested-PCR mostrou ser mais sensível do que a PCR e foi capaz de detectar 0,16 DICC50% da cepa vacinal. Além disso, a Nested-PCR detectou DNA viral em tecidos, soro e cama aviária de lotes com e sem sintomas clínicos.O produto de amplificação de 539 pb do gene vp1 de 44 amostras, provenientes de diferentes Estados produtores de frangos do Brasil, foi seqüenciado e foram encontradas 10 novas seqüências nucleotídicas do CAV. Estas 10 seqüências nucleotídicas foram analisadas filogeneticamente pelo método de distância neighbour joining com 1000 replicações o qual, mostrou que não houve correlação entre a patogenia apresentada nos animais e os grupos genéticos. Estas seqüências nucleotídicas também foram comparadas com 30 cepas de CAV isoladas em outros países e não foi observada correlação entre a distribuição geográfica e a variabilidade genética. Substituições de amino ácidos foram observadas em 9 posições sendo que, 65R substituindo o resíduo Q e 98F substituindo o resíduo Y ainda não haviam sido observadas. Conclui-se que, como técnica de detecção do CAV, o protocolo de Nested-PCR aqui descrito é mais sensível e menos trabalhoso do que o isolamento viral. As amostras Brasileiras de CAV possuem características filogenéticas similares às isoladas em outros países.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Começa-se por enfocar a Contabilidade apenas como modelo de medição, isolada da sua sobre determinação pelos modelos de decisão de seus usuários. Analisam-se os seus pilares lógicos (princípios fundamentais), como instrumentos de circunscrição do seu universo particular de observação. Derivam-se os sistemas contábeis como ordenamentos alternativos de interpretação da realidade micro-econômica . Acompanha-se a espiral de sua evolução dialeticamente levando à reformulação do próprio-modelo, que' se alarga ao• incorporar a inflação no âmbito do seu objeto de avaliação. Para a detecção e evidência dos efeitos inflacionários, discutem-se os sistemas contábeis corrigidos, lambem vistos como técnica viabilizadora da necessária constância na unidade de medida, perdida quando se antagonizam as duas funções da moeda, como padrão de aferição e como mercadoria de troca. Questiona-se o significado e adeqüacidade generalizadora dos índices de referencia complementar monetária, que se constituem no elo mais vulneravelmente viciador de toda a restante consistência lógica daqueles sistemas, por mais sofisticados que sejam. Da panorâmica teórica avança-se para aplicações práticas, tipificadas pelas duas versões locais de sistemas corrigidos de custos históricos. Detalha-se criticamente a sistemática de correção monetária implementada a partir da lei 6.404 que ainda hoje regulamenta a contabilidade financeira e fiscal da generalidade das empresas que operam no Brasil. Mostram-se os seus limites, procurando desfazerem-se diversos equívocos que a envolvem e as deturpações conceitual-contábeis que ela gera. Em especial, enfatiza-se a diferença entre resultado da correção monetária do balanço e resultado inflacionário, contestando-se o absurdo deferimentos da realização deste. Finalmente, aborda-se a proposta de correção integral- da Comissão de Valores Mobiliários (instrução 64), ainda sem vínculo tributário e apenas normativa para as companhias de capital aberto. Nela se assinalam a superarão das falhas técnicas da sistemática anterior e sobretudo o crescente primado da disciplina científica contábil sobre o casuísmo fiscal, que ela pode vir a ensejar. O que perspectivado como etapa de transparência e autonomização descentralizadora, vital à maturação de um estágio mais avançado no relacionamento econômico da sociedade

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação é apresentada sob a forma de quatro artigos. O artigo I avaliou a concordância e a acurácia no diagnóstico da situação do periápice de molares e prémolares inferiores portadores ou não de patologia periapical. Quarenta radiografias periapicais foram selecionadas, vinte de dentes com vitalidade pulpar e sem radiolucências periapicais e vinte de dentes com necrose pulpar. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas no formato JPEG 12. As imagens digitalizadas foram apresentadas no formato de slides com fundo preto no programa PowerPoint, sendo projetadas em equipamento multimídia para dois grupos de dez observadores, estudantes de pós-graduação de uma mesma instituição de ensino, simultaneamente, com repetição de 20% dos casos. Os observadores apresentaram ampla variação do percentual de concordância entre diagnósticos repetidos, contudo, quando agrupados por especialidade, endodontistas e radiologistas apresentaram percentuais de concordância de 62,50 e 66,25%, respectivamente. Na análise da concordância interobservadores, ambos os grupos apresentaram desempenho semelhante, sendo este superior entre os alunos de radiologia (Kendall´s W= 0,816 e 0,662 respectivamente). Em relação à especificidade, observou-se desempenho idêntico para os dois grupos (70 a 95%), contudo os alunos de radiologia apresentaram sensibilidade ligeiramente superior (70 a 95%). O artigo II verificou, in vitro, se é possível medir com confiabilidade, utilizando a tomografia computadorizada, a distância entre as corticais ósseas e os ápices dentários de molares e pré-molares em mandíbulas humanas secas, além de determinar a relação de proximidade, dos dois grupos, com as corticais. As imagens das peças ósseas foram obtidas por tomografia computadorizada. A partir delas mensurações foram realizadas, por quatro observadores, três não calibrados (A, B e C) e um calibrado (D). A concordância interexaminador, para os observadores A, B e C, assim como a intra para o observador D foram calculadas por meio do Teste de Concordância de Kendall. A partir das médias geradas (observador D) foi calculada a comparação entre os grupos de ápices e as medidas, utilizando os Testes Não-Paramétricos de Kruskal Wallis e Wilcoxon, ambos com a=5%. Uma boa concordância tanto inter quanto intra-examinador foi observada. A tomografia computadorizada mostrou-se reprodutível para a obtenção da distância entre os ápices dentários e as corticais ósseas, tanto na avaliação inter quanto intra-observador. Não foram encontradas diferenças estatisticamente significativas quanto á posição dos ápices de raízes de pré-molares e de molares, contudo os prémolares apresentaram seus ápices significativamente mais próximos da cortical vestibular do que da lingual. O artigo III avaliou o desempenho diagnóstico de radiografias periapicais em diferentes estágios de perda óssea (leve, moderada e severa), digitalmente simulada na região apical. A partir de radiografias trinta ápices dentários de pré-molares e molares inferiores sem radiolucências foram selecionados. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas no formato JPEG 12. Na imagem inicial (original) os sítios apicais selecionados foram demarcados por um quadrado, as mesmas foram digitalmente reproduzidas seis vezes e numeradas em ordem crescente, formando sete conjuntos. A perda óssea foi digitalmente simulada com as ferramentas lápis (modelo mecânico) e spray (modelo químico), com tinta preta, em intensidade de 3%, 5% e 8%. Os pares de imagens (inicial e experimental) e subtrações foram avaliados por três observadores, com repetição de 20% dos casos. O Coeficiente de Correlação de Spearman e o Teste Não Paramétrico de Wilcoxon mostraram uma boa concordância entre a primeira e a segunda medida para os dois modelos, com exceção de um observador. Através da análise das curvas ROC (p> 0,05) observou-se diferença significativa entre os métodos para ambos os modelos nas intensidades de 3% e 5%. Não houve diferença significativa para a intensidade de 8%. A subtração digital qualitativa mostrou desempenho significativamente melhor do que a avaliação de pares de radiografias para ambos os modelos de reabsorção simulada nas intensidades leve e moderada. O artigo IV avaliou, in vitro, os diagnósticos obtidos de pares de radiografias, subtração radiográfica de imagens digitais diretas e digitalizadas em defeitos ósseos periapicais incipientes criados por aplicação de solução ácida. Em quarenta sítios apicais de mandíbulas humanas secas foram criados defeitos ósseos, por meio da aplicação de ácido perclórico 70%, nos tempos 6, 10, 24, 48 e 54 horas. As radiografias convencionais e as imagens digitais diretas foram obtidas duas vezes no tempo zero e, seqüencialmente, antes de cada nova aplicação de ácido. As incidências foram padronizadas fixando os elementos geométricos. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas, assim como as digitais diretas, no formato TIFF. O programa Imagelab foi utilizado para a subtração das imagens digitais indiretas e diretas. A subtração radiográfica das imagens digitalizadas e os pares de imagem digital foram avaliados por um observador experiente, sendo 20% repetidas durante o exame. A análise quantitativa da subtração radiográfica de imagens diretas foi realizada no programa ImageTool. Os resultados das análises qualitativa e quantitativa foram avaliados por meio da ANOVA, sendo a primeira complementada pelo Teste de Comparações Múltiplas Dunnett T3 e a segunda pelo Teste de Tukey, ambos com a=5%. O observador apresentou coeficiente de Kappa = 0,739 para subtração e 0,788 para os pares de imagem. No tempo 0 houve acerto de diagnóstico em 100 e 90% dos casos para subtração e pares de imagem, respectivamente. Nos tempo 6 e 10/24 foram identificadas, para subtração, alterações em 20 e 25% dos casos e para os pares de imagem em 2,5 e 10% dos casos. A proporção de acertos aumentou significativamente nos tempos 48 e 54 horas, tanto para subtração – 80 e 82,5% – quanto para os pares de imagem – 47,5 e 52,5%. A ANOVA evidenciou diferenças estatisticamente significativas entre as áreas controle nos tempos 0/6 e 48/54. Comparando áreas teste e controle, observou-se que aquela apresentou valores médios de densidade óptica significativamente menores nos tempos 24, 48 e 54. Conclui-se que tanto a avaliação qualitativa como a quantitativa de imagens de subtração apresentaram melhor desempenho que a avaliação dos pares de imagem na detecção de defeitos incipientes no periápice.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A giardíase e a criptosporidiose estão entre as enfermidades de veiculação hídrica originadas por protozoários que têm ganhado maior notoriedade nas últimas décadas. Os microrganismos causadores dessas doenças têm-se tornado um desafio para as empresas de abastecimento de água. Este trabalho teve como objetivo verificar a ocorrência dos protozoários Cryptosporidium sp e Giardia sp nas águas brutas de quatro afluentes do Lago Guaíba: Rios Taquari, Caí, dos Sinos e Gravataí. Juntos, abastecem uma população de dezenas de municípios da Região Metropolitana de Porto Alegre. Foram feitas amostragens mensais, durante doze meses, em cada afluente. Foi empregado o método de filtração em membrana para pré-concentração, centrifugação para concentração, separação imunomagnética para purificação e comparados três métodos de detecção para ambos os microrganismos: DAPI (4’,6-diamidino-2-fenilindol), Safranina e Kinyoun para Cryptosporidium e DAPI, Iodo Lugol e Iodo Tricrômico para Giardia. A avaliação microscópica e contagem de (oo)cistos foram feitas utilizando-se microscopia de imunofluorescência e contraste de fase para o DAPI e microscopia óptica para as demais colorações. Obtiveram-se os seguintes resultados: para os Rios Taquari, Caí, dos Sinos e Gravataí, respectivamente: 75, 42, 33 e 25% das amostras foram positivas para Cryptosporidium e 92, 83, 67 e 50% para Giardia. As concentrações médias de Giardia foram superiores às de Cryptosporidium em todos os quatro afluentes. Os valores médios observados foram: 80 oocistos e 176 cistos/100L no Taquari; 47 oocistos e 66 cistos/100L no Caí; 19 oocistos e 53 cistos/100L no Sinos; 16 oocistos e 92 cistos/100L no Gravataí. Estes podem estar subestimados devido à baixa recuperação dos métodos analíticos existentes e empregados. As densidades encontradas indicam que os protozoários estão disseminados nas águas superficiais dos formadores do Lago Guaíba.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Resumo não disponível.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A toxoplasmose é uma das enfermidades parasitárias mais difundidas entre as transmissíveis. Novos aspectos parecem justificar o reaparecimento da questão da toxoplasmose, uma vez que ela vem sendo diagnosticada em um número crescente de pacientes com imunossupressão devida a várias causas tais como doenças malignas, transplantes de órgãos e principalmente, a Síndrome da Imunodeficiência Adquirida (AIDS). Mais de 50% da população humana mundial acha-se infectada pelo Toxoplasma gondii com variações determinadas por fatores climáticos, sócio-econômicos, tipo de contato com animais, em especial o gato e costumes alimentares relacionados ao consumo de carnes. O T. gondii é um protozoário que infecta praticamente todas as espécies animais. A caprinocultura é uma atividade bastante exercida no Estado, sendo que representa 0,4% de sua atividade pecuária total. O objetivo deste trabalho foi avaliar o papel desempenhado pela espécie caprina na transmissão do T.gondii. A amostragem foi estratificada por idade e gênero. Foram analisadas 360 amostras de soros de caprinos, através da técnica de Hemaglutinaçao Indireta (HAI) e Imunofluorescência Indireta (IFI). Os resultados obtidos pela HAI estimam uma freqüência de 19 % de soro-positividade e pela IFI de 30%, o que representa índices elevados. Em relação a Hemaglutinação Indireta, na variável gênero, foi observada uma freqüência de 20,1% de soropositividade para os machos e 19,3% para as fêmeas, enquanto que na variável idade, os resultados demonstraram freqüências de 16,5% para os indivíduos jovens e 21,1% para os adultos. No que tange à Imunofluorescência Indireta, a variável gênero demonstrou uma freqüência de 14,44% de soropositivos para os machos e 15,56% para as fêmeas. Na variável idade, através desta mesma técnica, observou-se uma freqüência de soropositividade de 13,06% para indivíduos jovens e de 16,94% para indivíduos adultos. Ao compararem-se as duas técnicas os dados obtidos revelam uma associação significativa entre elas, com uma índice de co-positividade para a HAI de 78,6% e de co-negatividade de 81,7%. O índice Kappa utilizado para medir o grau de concordância entre as duas técnicas foi igual a 0,5% que evidencia um grau de concordância moderado entre as técnicas, recomendando, desta forma o uso cauteloso da HAI na espécie caprina. Os dados obtidos nos permitem concluir que os caprinos criados na região estudada podem ser fonte de transmissão de T. gondii.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho se insere na área de teste de sistemas de hardware. O alvo principal é o estudo do comportamento de um circuito roteador de canais telefônicos, parte integrante de um sistema de comunicação mais complexo, na presença de falhas. Neste contexto, o teste em funcionamento do referido circuito roteador é considerado. Na primeira parte deste trabalho são abordados aspectos do teste de circuitos e sistemas, do ponto de vista de sua aplicabilidade, tais como classificação, defeitos e modelos de falhas, simulação, geração de testes e projeto visando o teste. Na segunda parte, relata-se os estudos realizados para implementar o teste em funcionamento do circuito roteador. Nesta etapa são abordados a arquitetura, o modelo de falhas e a metodologia utilizada, os ensaios de detecção de falhas e as técnicas de tolerância a falhas adotadas. O projeto do circuito de chaveamento é apresentado em uma versão utilizando componentes discretos e outra utilizando dispositivos programáveis. Na conclusão deste trabalho são apresentados os resultados obtidos e as perspectivas para trabalhos futuros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O tráfego de veículos, principalmente nas vias públicas de regiões densamente povoadas, tem sido objeto de preocupação por diversos aspectos: segurança no trânsito, supervisão da frota, controle de poluição, prevenção, registro de irregularidades, etc. Sistemas eletrônicos tradicionais são apontados como limitados pelas dificuldades apresentadas na instalação dos sensores e poucos recursos para extração de informações. Este trabalho propõe um sistema baseado no processamento digital de imagens em vídeo para detectar, acompanhar e extrair informações de um veículo em movimento, tais como: posição, velocidade e dimensões. Embora técnicas de pré-processamento sejam empregadas para minimizar problemas iluminação e trepidação, informações obtidas nas etapas finais do processamento, tendem a distorcer em função destes fatores. Algoritmos baseados em análise probabilística no domínio espaço temporal de imagens 2-D são propostos para segmentar o objeto mesmo na presença destes fatores. A fim de tornar o acompanhamento mais robusto a oclusões e pixels espúrio s, é proposto um método que detecta e rejeita posições inconsistentes do objeto de acordo com a estimativa de sua próxima posição.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação aborda a estimativa das probabilidades de falha de um produto ao longo do período de garantia. As fontes de dados para esta estimativa são a quantidade de produtos vendidos e o número de falhas detectadas em cada mês. Duas metodologias não-paramétricas para esta análise são apresentadas e validadas. A metodologia de análise de dados completos requer o conhecimento da data de venda e de falha de cada produto. A metodologia de análise de dados incompletos requer apenas os totais de vendas e falhas em cada mês ao longo do período de garantia. Para os dois casos, é ainda implementada a suavização das probabilidades de falha estimadas, utilizando distribuições paramétricas Weibull ou Lognormal. As duas técnicas são implementadas em planilha eletrônica e aplicadas na análise de dados simulados. O desempenho de cada metodologia é avaliado com dados de diferentes características, resultando em recomendações para escolha e aplicação da metodologia mais adequada em cada caso

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A mineração de dados é o núcleo do processo de descoberta de conhecimento em base de dados. Durante a mineração podem ser aplicadas diversas técnicas para a extração de conhecimento. Cada técnica disponível visa à realização de um objetivo e é executada de uma forma em particular. O foco desta dissertação é uma destas técnicas conhecida como detecção de desvios. A detecção de desvios é baseada no reconhecimento do padrão existente nos dados avaliados e a capacidade de identificar valores que não suportem o padrão identificado. Este trabalho propõe uma sistemática de avaliação dos dados, com o objetivo de identificar os registros que destoam do padrão encontrado. Para este estudo são aplicadas algumas técnicas de avaliação estatística. Inicialmente é apresentada uma revisão bibliográfica sobre descoberta de conhecimento em base de dados (DCBD) e mineração de dados (MD). Na seqüência, são apresentados os principais conceitos que auxiliam na definição do que é um desvio, quais as técnicas utilizadas para a detecção e a forma de avaliação do mesmo. Dando continuidade ao trabalho, a sistemática CRISP_DM é descrita por ser aplicada aos estudos de casos realizados. A seguir, são descritos os estudos de casos realizados que utilizaram as bases da Secretaria da Saúde do Rio Grande do Sul (SES). Finalmente, são apresentados as conclusões do estudo e possíveis trabalhos futuros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A análise do sono está baseada na polissonogra a e o sinal de EEG é o mais importante. A necessidade de desenvolver uma análise automática do sono tem dois objetivos básicos: reduzir o tempo gasto na análise visual e explorar novas medidas quantitativas e suas relações com certos tipos de distúrbios do sono. A estrutura do sinal de EEG de sono está relacionada com a chamada microestrutura do sono, que é composta por grafoelementos. Um destes grafoelementos é o fuso de sono (spindles). Foi utilizado um delineamento transversal aplicado a um grupo de indivíduos normais do sexo masculino para testar o desempenho de um conjunto de ferramentas para a detecção automática de fusos. Exploramos a detecção destes fusos de sono através de procura direta, Matching Pursuit e uma rede neural que utiliza como "input"a transformada de Gabor (GT). Em comparação com a análise visual, o método utilizando a transformada de Gabor e redes neurais apresentou uma sensibilidade de 77% e especi cidade de 73%. Já o Matching Pursuit, apesar de mais demorado, se mostrou mais e ciente, apresentando sensibilidade de 81,2% e especi cidade de 85.2%.