30 resultados para Detecção e localização de falhas
em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ
Resumo:
Esse trabalho está baseado na investigação dos detectores de falhas aplicando classificadores de classe única. As falhas a serem detectadas são relativas ao estado de funcionamento de cada componente do circuito, especificamente de suas tolerâncias (falha paramétrica). Usando a função de transferência de cada um dos circuitos são gerados e analisados os sinais de saída com os componentes dentro e fora da tolerância. Uma função degrau é aplicada à entrada do circuito, o sinal de saída desse circuito passa por uma função diferenciadora e um filtro. O sinal de saída do filtro passa por um processo de redução de atributos e finalmente, o sinal segue simultaneamente para os classificadores multiclasse e classe única. Na análise são empregados ferramentas de reconhecimento de padrões e de classificação de classe única. Os classficadores multiclasse são capazes de classificar o sinal de saída do circuito em uma das classes de falha para o qual foram treinados. Eles apresentam um bom desempenho quando as classes de falha não possuem superposição e quando eles não são apresentados a classes de falhas para os quais não foram treinados. Comitê de classificadores de classe única podem classificar o sinal de saída em uma ou mais classes de falha e também podem classificá-lo em nenhuma classe. Eles apresentam desempenho comparável ao classificador multiclasse, mas também são capazes detectar casos de sobreposição de classes de falhas e indicar situações de falhas para os quais não foram treinados (falhas desconhecidas). Os resultados obtidos nesse trabalho mostraram que os classificadores de classe única, além de ser compatível com o desempenho do classificador multiclasse quando não há sobreposição, também detectou todas as sobreposições existentes sugerindo as possíveis falhas.
Resumo:
Diversas das possíveis aplicações da robótica de enxame demandam que cada robô seja capaz de estimar a sua posição. A informação de localização dos robôs é necessária, por exemplo, para que cada elemento do enxame possa se posicionar dentro de uma formatura de robôs pré-definida. Da mesma forma, quando os robôs atuam como sensores móveis, a informação de posição é necessária para que seja possível identificar o local dos eventos medidos. Em virtude do tamanho, custo e energia dos dispositivos, bem como limitações impostas pelo ambiente de operação, a solução mais evidente, i.e. utilizar um Sistema de Posicionamento Global (GPS), torna-se muitas vezes inviável. O método proposto neste trabalho permite que as posições absolutas de um conjunto de nós desconhecidos sejam estimadas, com base nas coordenadas de um conjunto de nós de referência e nas medidas de distância tomadas entre os nós da rede. A solução é obtida por meio de uma estratégia de processamento distribuído, onde cada nó desconhecido estima sua própria posição e ajuda os seus vizinhos a calcular as suas respectivas coordenadas. A solução conta com um novo método denominado Multi-hop Collaborative Min-Max Localization (MCMM), ora proposto com o objetivo de melhorar a qualidade da posição inicial dos nós desconhecidos em caso de falhas durante o reconhecimento dos nós de referência. O refinamento das posições é feito com base nos algoritmos de busca por retrocesso (BSA) e de otimização por enxame de partículas (PSO), cujos desempenhos são comparados. Para compor a função objetivo, é introduzido um novo método para o cálculo do fator de confiança dos nós da rede, o Fator de Confiança pela Área Min-Max (MMA-CF), o qual é comparado com o Fator de Confiança por Saltos às Referências (HTA-CF), previamente existente. Com base no método de localização proposto, foram desenvolvidos quatro algoritmos, os quais são avaliados por meio de simulações realizadas no MATLABr e experimentos conduzidos em enxames de robôs do tipo Kilobot. O desempenho dos algoritmos é avaliado em problemas com diferentes topologias, quantidades de nós e proporção de nós de referência. O desempenho dos algoritmos é também comparado com o de outros algoritmos de localização, tendo apresentado resultados 40% a 51% melhores. Os resultados das simulações e dos experimentos demonstram a eficácia do método proposto.
Resumo:
Hoje em dia, distribuições de grandes volumes de dados por redes TCP/IP corporativas trazem problemas como a alta utilização da rede e de servidores, longos períodos para conclusão e maior sensibilidade a falhas na infraestrutura de rede. Estes problemas podem ser reduzidos com utilização de redes par-a-par (P2P). O objetivo desta dissertação é analisar o desempenho do protocolo BitTorrent padrão em redes corporativas e também realizar a análise após uma modificação no comportamento padrão do protocolo BitTorrent. Nesta modificação, o rastreador identifica o endereço IP do par que está solicitando a lista de endereços IP do enxame e envia somente aqueles pertencentes à mesma rede local e ao semeador original, com o objetivo de reduzir o tráfego em redes de longa distância. Em cenários corporativos típicos, as simulações mostraram que a alteração é capaz de reduzir o consumo médio de banda e o tempo médio dos downloads, quando comparados ao BitTorrent padrão, além de conferir maior robustez à distribuição em casos de falhas em enlaces de longa distância. As simulações mostraram também que em ambientes mais complexos, com muitos clientes, e onde a restrição de banda em enlaces de longa distância provoca congestionamento e descartes, o desempenho do protocolo BitTorrent padrão pode ser semelhante a uma distribuição em arquitetura cliente-servidor. Neste último caso, a modificação proposta mostrou resultados consistentes de melhoria do desempenho da distribuição.
Resumo:
O objetivo do presente trabalho foi avaliar in vivo a detecção de cárie através do exame visual ICDAS, transiluminação por fibra ótica combinado ao ICDAS e exame radiográfico. Um total de 2.279 superfícies proximais e cicatrículas e fissuras em incisivos superiores, pré-molares e molares permanentes e 272 superfícies em molares decíduos em72 escolares (8 a 18 anos) foram avaliadas por um examinador treinado. Os sete escores para detecção de cárie primária do sistema visual ICDAS foram aplicados. Dois equipamentos de transiluminação por fibra ótica foram avaliados: FOTI Schott (SCH), com ponta de fibra ótica com 0,5mm de diâmetro, e FOTI Microlux (MIC), com diâmetro da ponta 3 mm. Durante o exame combinado FOTI/ICDAS, a fibra ótica era utilizada tanto para iluminar quanto para transiluminar a superfície sob avaliação. O exame radiográfico (RX) consistiu de radiografias interproximais posteriores e periapicais anteriores. Os exames foram realizados em consultório odontológico após escovação supervisionada. No primeiro dia de exame, o exame visual utilizando o ICDAS era realizado e em seguida, o exame combinado ao MIC ou SCH. Logo após era realizado o exame radiográfico. Após uma semana, novamente o ICDAS era realizado, e em seguida o exame combinado com o equipamento de FOTI não utilizado na semana anterior. Os exames foram repetidos em 10 pacientes após intervalo mínimo de uma semana para avaliação da reprodutibilidade intra-examinador, a qual apresentou valores de 0,95 (ICDAS), 0,94 (MIC), 0,95 (SCH) e 0,99 (RX) pelo kappa ponderado. Em cicatrículas e fissuras de permanentes, o RX julgou que um número maior de superfícies apresentava lesão em dentina (53) do que os outros métodos (34 a 36); porém não detectou nenhuma lesão em esmalte, as quais foram identificadas pelo ICDAS (94), SCH (107) e MIC (91). Em proximais permanentes, a transiluminação por fibra ótica identificou maior número de proximais como lesão em esmalte - 150 (SCH) e 139 (MIC) - do que o exame visual (106), enquanto o RX identificou somente 43. Em oclusais de decíduos, os quatro métodos julgaram um número aproximadamente similar de superfícies sem lesão (52 a 59) ou com lesão em dentina (21 a 26), assim como para lesões proximais em dentina (31 a 36). Entretanto um número reduzido de lesões proximais decíduas em esmalte foi julgado pelo exame radiográfico (3) em comparação com os outros métodos (15 a 16). Em decíduos, o ICDAS e o FOTI combinado ao exame visual julgaram maior número de lesões proximais em esmalte que o exame radiográfico, sendo que número similar de lesões em dentina foram classificadas pelos quatro métodos em oclusais e proximais de molares decíduos. Em cicatrículas e fissuras de permanentes, tanto o exame visual ICDAS quanto sua combinação aos dois equipamentos de transiluminação apresentaram maior similaridade de superfícies julgadas como lesão em esmalte ou como lesão em dentina, enquanto o exame radiográfico classificou mais superfícies como lesão em dentina e nenhuma como lesão em esmalte. A adição da transiluminação por fibra ótica ao exame visual aumentou em um terço a detecção das lesões cariosas proximais julgadas em dentina pelo ICDAS isoladamente e aproximadamente quadruplicou o número daquelas assim classificadas pela avaliação radiográfica em permanentes.
Resumo:
Neste trabalho, desenvolveu-se um sistema de detecção fotoacústico para medidas simultâneas e independentes dos sinais fotoacústicos dianteiro e traseiro, utilizando dois microfones e um único feixe de excitação. Utiliza-se a diferença de fase entre estes sinais para a determinação da difusividade térmica de materiais, com base na abordagem teórica da técnica da Diferença de Fase dos Dois Feixes (T2F). Na metodologia apresentada não há a necessidade de se alternar o feixe de excitação entre as faces da amostra. Esta característica torna mais rápido o procedimento de medida e simplifica o monitoramento automatizado de processos dinâmicos que afetam a difusividade térmica do material, como a cura de resinas poliméricas. É apresentado o procedimento utilizado para determinar a diferença entre as fases intrínsecas dos microfones e o método empregado para compensar tal diferença e, assim, obter a defasagem entre os sinais fotoacústicos dianteiro e traseiro. O sistema de detecção desenvolvido é avaliado em medidas de difusividade térmica de amostras metálicas (aço inoxidável AISI 304 e aço SAE 1020) e poliméricas (polipropileno e polietileno de baixa densidade). Os resultados obtidos concordam de forma satisfatória com dados disponíveis na literatura. Finalmente, a aplicação do sistema proposto ao monitoramento de cura de amostras de resina epóxi indicou sua potencialidade de acompanhar, em tempo real, este tipo de processo dinâmico.
Resumo:
As lesões impalpáveis da mama que muitas das vezes são assintomáticas, podem corresponder à um estágio de progressão de câncer difícil de ser detectado, durante os exames de rotina de palpação da mulher. O único método possível para a descoberta dessas lesões é através dos exames de imagem da mama, de modo geral, através da mamografia, que geralmente ocorre após os 45 anos. Devido a esses fatores, lesões impalpáveis, são frequentemente, descobertas apenas quando o estágio de desenvolvimento da doença já está avançado e as intervenções terapêuticas são menos reparadoras. Com a finalidade de iniciar a caracterização de tumores impalpáveis iniciais, objetivamos analisar o perfil genético (mutação) e epigenético (metilação de região promotora) de regiões do DNA relacionadas ao gene supressor tumoral TP53, provenientes de biópsias de mulheres residentes do Estado do Rio de Janeiro. Neste trabalho, foram investigadas 34 amostras de tecido de tumor de mama, por sequenciamento de DNA, nos exons de 5 a 8 do gene TP53. Nesta região, não foi encontrada nenhuma mutação. Este resultado pode estar relacionado ao tipo inicial de lesão, de acordo com os dados radiológicos das lesões de categorias 3 e 4 da escala BIRADS. Para verificar o estado de metilação da região promotora do gene TP53, analisamos 30 pares de amostras (sangue e tumor) de pacientes com suspeita de câncer de mama, pela técnica MSP-PCR. Nenhuma amostra tumoral apresentou alteração no estado de metilação na região promotora do gene TP53, quando comparada à amostra normal. Um motivo possível para a disparidade de resultados em relação à outros trabalhos pode ter sido a utilização da técnica. A caracterização das lesões impalpáveis apenas foi iniciada neste trabalho, no qual pudemos constatar que a mutação em TP53 pode ser um evento mais tardio. Portanto, a lesão mamária, em suas diferentes formas, continuará a ser o assunto investigado por nosso grupo, ampliando o número de amostras e alcançando melhor conexão da conduta e dos métodos clínicos já existentes, com as novas possibilidades de diagnóstico via marcadores moleculares em tumores e fluidos biológicos
Resumo:
O diagnóstico precoce e o tratamento são imprescindíveis para o controle da hanseníase, pois visam eliminar o mais precocemente possível as fontes de transmissão. O principal critério de cura da doença é o tempo de tratamento, relacionado às doses fixas da poliquimioterapia. O tempo de tratamento dos pacientes multibacilares foi reduzido de 24 para 12 doses em até 18 meses em 1998. Os objetivos desta tese foram: avaliar a detecção de casos de hanseníase entre os contatos dos pacientes e avaliar fatores de risco associados à piora das incapacidades físicas nos pacientes após a alta do tratamento poliquimioterápico com as 12 doses mensais. Dois artigos foram elaborados. O primeiro artigo avaliou características dos pacientes com hanseníase e de seus contatos associadas ao risco de adoecimento entre os contatos. O segundo artigo avaliou fatores de risco relacionados à piora das incapacidades físicas dos pacientes com hanseníase multibacilar, submetidos ao tratamento com 12 doses fixas da poliquimioterapia. Os resultados mostraram que o risco para hanseníase, relacionado aos contatos foi o tipo de convivência com o caso índice. Entre os fatores dos casos índices, a carga bacilar foi o único associado ao adoecimento dos contatos. Além desses fatores, os contatos que apresentam relação de consangüinidade com o caso índice e os contatos dos pacientes com menor nível de escolaridade mostraram maior chance de se apresentarem doentes no momento do diagnóstico do caso índice. A cicatriz BGC e a vacina recebida após o diagnóstico do caso índice contribuíram independentemente como fatores de proteção. A neuropatia piorou em 40% dos pacientes durante o período de 10 anos após a alta do tratamento. Esta piora foi associada à presença de incapacidades físicas e ao número de lesões cutâneas no momento do diagnóstico assim como à presença de neurite durante o acompanhamento.
Resumo:
O objetivo deste trabalho é conhecer e compreender melhor os imprevistos no fornecimento de energia elétrica, quando ocorrem as variações de tensão de curta duração (VTCD). O banco de dados necessário para os diagnósticos das faltas foi obtido através de simulações de um modelo de alimentador radial através do software PSCAD/EMTDC. Este trabalho utiliza um Phase-Locked Loop (PLL) com o intuito de detectar VTCDs e realizar a estimativa automática da frequência, do ângulo de fase e da amplitude das tensões e correntes da rede elétrica. Nesta pesquisa, desenvolveram-se duas redes neurais artificiais: uma para identificar e outra para localizar as VTCDs ocorridas no sistema de distribuição de energia elétrica. A técnica aqui proposta aplica-se a alimentadores trifásicos com cargas desequilibradas, que podem possuir ramais laterais trifásicos, bifásicos e monofásicos. No desenvolvimento da mesma, considera-se que há disponibilidade de medições de tensões e correntes no nó inicial do alimentador e também em alguns pontos esparsos ao longo do alimentador de distribuição. Os desempenhos das arquiteturas das redes neurais foram satisfatórios e demonstram a viabilidade das RNAs na obtenção das generalizações que habilitam o sistema para realizar a classificação de curtos-circuitos.
Resumo:
As infecções associadas aos cuidados de saúde constituem um problema grave nas unidades hospitalares bem como nos serviços de atendimento extra-hospitalares. Diferentemente de outros países, no Brasil, existe uma incidência alta dessas infecções causadas por microorganismos Gram-negativos produtores de β-lactamase de espectroestendido (ESBL). Estas enzimas hidrolisam compostos β-lactâmicos e são consideradas mundialmente como de importância clínica, pois a localização de seus genes emelementos móveis facilitam a transmissão cruzada. Este estudo foi realizado com amostras bacterianas isoladas de material clínico e de fezes de pacientes internados em um hospital da rede pública no Rio de Janeiro, Brasil. Estes pacientes estavam internados em duas unidades de terapia intensiva cardiológica, no período de janeiro a dezembro de 2007. O estudo teve por objetivo realizar a caracterização fenotípica e genotípica desses isolados associados à colonização ou infecção dos pacientes. Os testes fenotípicos e genotípicos foram realizados na Universidade do Estado do Rio de Janeiro e incluíram provas bioquímicas, teste de susceptibilidade, teste confirmatório para a expressão da produção da enzima ESBL e Reação de Polimerase em Cadeia (PCR) com iniciadores específicos para cinco genes: blaTEM, blaSHV, CTX-M1, Toho1 e AmpC. As espécies bactérianas mais frequentemente isoladas foram Escherichia coli (25%) e Klebsiella pneumoniae (30,56%), e os genes mais prevalentes foram blaTEM (41,6%), AMPC (41,6%) blaSHV (33,3%), CTX-M1 (25%), e Toho1 (19,44%). Identificamos em 25% das amostras enterobactérias que não eram E. coli, K. pneumoniae ou Proteus sp, com fenótipo para ESBL e a expressão dos mesmos genes, confirmando a necessidade de investigação nestes grupos microbianos. O substrato mais sensível para a expressão da área de sinergismo no Teste de Aproximação foi o ceftriaxone (80%). Identificamos também que 17% das amostras positivas para ESBL apresentaram co-produção para AmpC e 50% apresentaram mais de um gene para os iniciadores testados. A presença da carbapenemase foi avaliada em amostras bacterianas com susceptibilidade intermediária para ertapenem, através do Teste de Hodge modificado. Os achados do presente estudo caracterizaram a co-produção de AmpC e ESBL, bem como sugerem a necessidade da revisão e a ampliação dos métodos para a detecção de outros padrões de resistência na nossa Instituição.
Utilização de métodos de comparação de sequências para a detecção de genes taxonomicamente restritos
Resumo:
Desde a década de 1990, os esforços internacionais para a obtenção de genomas completos levaram à determinação do genoma de inúmeros organismos. Isto, aliado ao grande avanço da computação, tem permitido o uso de abordagens inovadoras no estudo da estrutura, organização e evolução dos genomas e na predição e classificação funcional de genes. Entre os métodos mais comumente empregados nestas análises está a busca por similaridades entre sequências biológicas. Análises comparativas entre genomas completamente sequenciados indicam que cada grupo taxonômico estudado até o momento contém de 10 a 20% de genes sem homólogos reconhecíveis em outras espécies. Acredita-se que estes genes taxonomicamente restritos (TRGs) tenham um papel importante na adaptação a nichos ecológicos particulares, podendo estar envolvidos em importantes processos evolutivos. Entretanto, seu reconhecimento não é simples, sendo necessário distingui-los de ORFs não-funcionais espúrias e/ou artefatos derivados dos processos de anotação gênica. Além disso, genes espécie- ou gêneroespecíficos podem representar uma oportunidade para o desenvolvimento de métodos de identificação e/ou tipagem, tarefa relativamente complicada no caso dos procariotos, onde o método padrão-ouro na atualidade envolve a análise de um grupo de vários genes (MultiLocus Sequence Typing MLST). Neste trabalho utilizamos dados produzidos através de análises comparativas de genomas e de sequências para identificar e caracterizar genes espécie- e gênero-específicos, os quais possam auxiliar no desenvolvimento de novos métodos para identificação e/ou tipagem, além de poderem lançar luz em importantes processos evolutivos (tais como a perda e ou origem de genes em linhagens particulares, bem como a expansão de famílias de genes em linhagens específicas) nos organismos estudados.
Resumo:
A presente pesquisa objetiva verificar se os procedimentos utilizados pela Auditoria Interna na detecção de fraudes em uma empresa privada operadora de planos de saúde permitiram a coleta de evidências confiáveis e suficientes para suportar as conclusões dos auditores sobre os fatos reportados nos relatórios de auditoria interna. Para realização do estudo, adotou-se como estratégia investigativa, o estudo de caso único. As técnicas utilizadas ao longo de toda a pesquisa foram as análises documentais e de conteúdo, baseadas nos objetivos propostos no estudo e na fundamentação teórica. A pesquisa concentrou-se nas análises dos relatórios de auditoria interna que reportaram ocorrências de fraudes na empresa estudada, emitidos nos anos de 2010, 2011 e 2012; contudo optou-se, também, por descrever as rotinas e práticas operacionais relacionadas à atuação do departamento de auditoria que contribuíram para uma melhor compreensão dos dados e do resultado do estudo. Os principais achados demonstram que os procedimentos utilizados pela Auditoria Interna na detecção de fraudes permitiram a coleta de evidências de auditoria confiáveis e suficientes para suportar as conclusões dos auditores. O resultado da pesquisa indica, também, que não existe um padrão de utilização dos procedimentos de auditoria. De acordo com o tipo de fraude e objetivo, o auditor interno deve definir quais os procedimentos de auditoria devem ser utilizados na obtenção de evidências de auditoria confiáveis e suficientes para suportar as suas conclusões.
Resumo:
A presente dissertação procura investigar o incremento da racionalidade regulatória (ou otimização regulatória) a partir da teoria das falhas de regulação. Hoje, já parece existir um consenso teórico e prático de que a regulação e seu aparato institucional as agências reguladoras constituem fenômeno irreversível. Nesse contexto, as perguntas que se colocam são as seguintes: no plano dos resultados, o Estado Regulador tem alcançado as finalidades a que se propôs? Em caso negativo, que tipo de obstáculos o tem impedido? E mais: que providências devem ser adotadas para superá-los? Responder a tais indagações depende do reconhecimento de que não apenas os mercados são imperfeitos; também a intervenção estatal na economia gera riscos e efeitos negativos. Estudar seus tipos, suas fontes e a maneira como operam é o ponto de partida para se otimizar a regulação. O trabalho propõe uma sistematização das espécies de falhas regulatórias, baseada na proposta de Cass Sunstein, mas adaptada à realidade brasileira. A exposição é precedida de explicações introdutórias sobre o conceito de regulação; as razões para se regular; e características da regulação no Estado Democrático de Direito. Tais características conformam um ideal de racionalidade regulatória, o qual é comprometido pela instauração das falhas de regulação. Reconhecer a existência dos defeitos regulatórios e conhecê-los é já um primeiro passo para se melhorar a regulação. Mas há outros encaminhamentos deveras importantes para a prevenção e correção de falhas regulatórias. Dentre eles, destaca-se um conjunto de reformas institucionais em sentido amplo e estrito, as quais envolvem o sistema de controle pelos Poderes Legislativo, Executivo e Judiciário, e mecanismos procedimentais como a análise de impacto regulatório e a elaboração de agendas regulatórias.
Resumo:
O presente estudo parte da análise de uma amostra de 100 redações produzidas no exame de Vestibular da UERJ/2002. Tem por objetivo estabelecer critérios para o reconhecimento dos problemas de progressão argumentativa. Com base nas teorias propostas em Lingüística Textual e Análise do Discurso discutiram-se as noções de Cognição, Textualidade, Argumentação e coerência. Apresentou-se uma proposta metodológica de Produção Textual no Ensino Médio e exercícios didáticos. Os resultados da pesquisa apontam para a necessidade de que os recentes estudos sobre Cognição, Textualidade, Argumentação, Progressão e Métodos de Produção Textual sejam divulgados, debatidos e absorvidos pelos profissionais que exercem o ensino da disciplina
Resumo:
No presente trabalho, o modelo de identificação de danos apresentado por Stutz et al. (2005) é utilizado. A contribuição do presente trabalho consiste em avaliar alguns pontos da identificação de danos em vigas e, em seguida, expandir o modelo para identificar danos estruturais em placas. Uma avaliação do comportamento das frequências naturais e da matriz de flexibilidade para uma viga de Euler-Bernoulli simplesmente apoiada, na presença de danos simulados pelo parâmetro de coesão é realizada. Essa análise, permite também o conhecimento das regiões onde há maior sensibilidade ao dano, ajudando a traçar estratégias para melhorar a identificação de danos em regiões que sofrem poucas alterações na presença de falhas estruturais. Comparou-se o comportamento dos dois primeiros modos de vibração da viga simplesmente apoiada na presença de um dano estrutural, com os dois primeiros modos de vibração da estrutura intacta e corrompidos por ruído. Diversos métodos de localização de danos e de otimização são avaliados na tentativa de identificar os danos simulados através do campo de danos proposto por Stutz et al. (2005) na presença de dados ruidosos. Após a apresentação de resultados da identificação de danos obtidos para uma viga de Euler-Bernoulli simplesmente apoiada, uma análise do comportamento das frequências naturais e da matriz de flexibilidade de uma viga de Euler- Bernoulli engastada na presença de danos é apresentada, assim como os resultados de identificação de danos considerando-se diversos cenários e níveis de ruído. Uma importante contribuição do presente trabalho consiste em propor um método de identificação de danos via matriz de flexibilidade onde o campo de defeitos para a placa de Kirchoff é modelado via MEF. Uma análise do comportamento da matriz de flexibilidade devido à presença de danos na placa é apresentada, assim como os resultados numéricos da identificação de danos estruturais com e sem a presença de dados ruidosos. Com a finalidade de reduzir o custo computacional na identificação de danos em estruturas complexas, uma hibridização entre o método de otimização por enxame de particulas (PSO, do inglês, Particle Swarm Optimization) e o método de otimização Levenberg-Marquardt é proposta. Resultados numéricos da hibridização para uma estrutura do tipo placa são apresentados.
Resumo:
O contexto do estudo é a predição da anemia fetal em gestantes portadoras da doença hemolítica perinatal e tem como objetivo avaliar a acurácia da medida doppler velocimétrica da velocidade máxima do pico sistólico da artéria cerebral média na detecção da anemia fetal na doença hemolítica perinatal. A identificação dos estudos foi realizada com a adoção de bancos de dados gerais (MEDLINE e LILACS) e a partir de referências bibliográficas de outros autores. Os estudos selecionados tinham como critérios serem do tipo observacionais, com gestantes apresentando coombs indireto maior do que 1:8, técnica de insonação do vaso adequada, Vmax-ACM ≥ 1,5MOM, presença obrigatória de comparação com o padrão-ouro (hemoglobina fetal e/ou neonatal), e nível de evidência diagnóstica acima ou igual a 4. Os dados dos estudos selecionados foram alocados em tabelas 2x2 comparando o resultado do teste com o padrão-ouro. A acurácia diagnóstica foi expressa principalmente através da razão de verossimilhança. A revisão incluiu onze estudos, com uma amostra total de 688. Três estudos apresentaram delineamento do tipo prospectivo e nível de evidência diagnóstica categoria 1. A performance do teste em questão apresentou variação razoável. O estudo de Mari et al (2000) foi considerado o de melhor qualidade metodológica, apresentando uma RV(+) de 8,45 e uma RV(-) de 0,02. A medida do doppler da Vmax da ACM como preditor da anemia fetal na doença hemolítica perinatal está consolidada. Porém, alguns pontos precisam ser melhor esclarecidos, como o intervalo ideal dos exames em casos graves e a validade do método em fetos que já foram submetidos a transfusões intra-uterinas.