846 resultados para Detecção automática
Resumo:
O objetivo deste trabalho é prover um aplicativo de celular e um protocolo para aquisição de imagens para contagem dos ovos de Aedes aegypti com as seguintes características: facilidade de uso, alta acurácia e custo baixo. O mosquito Ae. aegypti, popularmente conhecido como mosquito da dengue, é um importante vetor de arboviroses como a própria dengue, a chikungunya, a zika e a febre amarela em seu ciclo urbano. O monitoramento entomológico é uma maneira de melhorar a capacidade de predição e na detecção precoce de epidemias das doenças mencionadas. Este monitoramento é majoritariamente baseado no índice larvário, o qual lista a quantidade de casas infectadas, ou a quantidade de ovos de Aedes coletados em palhetas em ovitrampas. Estas palhetas são normalmente de eucatex, mas existem pesquisas atuais testando o algodão.A contagem dos ovos coletados em ovitrampas é feita manualmente, a qual demanda tempo, profissionais qualificados para o manuseio de equipamento laboratorial (lupas e microscópios) e conhecimento entomológico. Buscou-se criar um método para acelerar o trabalho feito pelos profissionais em controle entomológico. A metodologia contou com a criação de um aplicativo e com um processo de contagem dos ovos, o qual consiste em quatro passos: a) Fotografar as palhetas em ovitrampas utilizando de uma câmera de celular; b) Transformar as fotos em uma imagem binarizada, removendo todos os elementos que não são ovos; c) Contar a área de cada elemento; d) A partir do uso de um classificador especialmente desenvolvido, estimar a quantidade de ovos baseado na área de cada elemento. Nos resultados, foi possível notar que houve uma disparidade na contagem de ovos em palhetas de algodão, a qual teve um erro médio próximo a zero, em relação às palhetas de eucatex, as quais tiveram erro médio acima de 5\%. Dos pontos mais importantes das conclusões, destacam-se a possibilidade de melhoria contínua do aplicativo por permanecer na nuvem, com possibilidade de avanços conforme novas descobertas, assim como o excelente custo-benefício obtido, por conseguir operar com baixo custo monetário.
Resumo:
The purpose of this work is to demonstrate and to assess a simple algorithm for automatic estimation of the most salient region in an image, that have possible application in computer vision. The algorithm uses the connection between color dissimilarities in the image and the image’s most salient region. The algorithm also avoids using image priors. Pixel dissimilarity is an informal function of the distance of a specific pixel’s color to other pixels’ colors in an image. We examine the relation between pixel color dissimilarity and salient region detection on the MSRA1K image dataset. We propose a simple algorithm for salient region detection through random pixel color dissimilarity. We define dissimilarity by accumulating the distance between each pixel and a sample of n other random pixels, in the CIELAB color space. An important result is that random dissimilarity between each pixel and just another pixel (n = 1) is enough to create adequate saliency maps when combined with median filter, with competitive average performance if compared with other related methods in the saliency detection research field. The assessment was performed by means of precision-recall curves. This idea is inspired on the human attention mechanism that is able to choose few specific regions to focus on, a biological system that the computer vision community aims to emulate. We also review some of the history on this topic of selective attention.
Resumo:
En esta tesis de máster se presenta una metodología para el análisis automatizado de las señales del sonar de largo alcance y una aplicación basada en la técnica de reconocimiento óptico de Optical Character Recognition, caracteres (OCR). La primera contribución consiste en el análisis de imágenes de sonar mediante técnicas de procesamiento de imágenes. En este proceso, para cada imagen de sonar se extraen y se analizan las regiones medibles, obteniendo para cada región un conjunto de características. Con la ayuda de los expertos, cada región es identi cada en una clase (atún o no-atún). De este modo, mediante el aprendizaje supervisado se genera la base de datos y, a su vez, se obtiene un modelo de clasi cación. La segunda contribución es una aplicación OCR que reconoce y extrae de las capturas de pantalla de imágenes de sonar, los caracteres alfanuméricos correspondientes a los parámetros de situación (velocidad, rumbo, localización GPS) y la confi guración de sonar (ganancias, inclinación, ancho del haz). El objetivo de este proceso es el de maximizar la e ficiencia en la detección de atún en el Golfo de Vizcaya y dar el primer paso hacia el desarrollo de un índice de abundancia de esta especie, el cual esté basado en el procesamiento automático de las imágenes de sonar grabadas a bordo de la ota pesquera durante su actividad pesquera rutinaria.
Resumo:
Analisa, sob a perspectiva multidimensional adotada nesta pesquisa, o ativismo judicial que ocupa uma postura de supremacia institucional do Poder Judiciário que, dentro de uma dada realidade sociopolítica e constitucional, expande seu poder político-decisório em face dos demais Poderes, manifestando-se em uma ou várias dimensões.
Resumo:
O objetivo do presente trabalho foi avaliar in vivo a detecção de cárie através do exame visual ICDAS, transiluminação por fibra ótica combinado ao ICDAS e exame radiográfico. Um total de 2.279 superfícies proximais e cicatrículas e fissuras em incisivos superiores, pré-molares e molares permanentes e 272 superfícies em molares decíduos em72 escolares (8 a 18 anos) foram avaliadas por um examinador treinado. Os sete escores para detecção de cárie primária do sistema visual ICDAS foram aplicados. Dois equipamentos de transiluminação por fibra ótica foram avaliados: FOTI Schott (SCH), com ponta de fibra ótica com 0,5mm de diâmetro, e FOTI Microlux (MIC), com diâmetro da ponta 3 mm. Durante o exame combinado FOTI/ICDAS, a fibra ótica era utilizada tanto para iluminar quanto para transiluminar a superfície sob avaliação. O exame radiográfico (RX) consistiu de radiografias interproximais posteriores e periapicais anteriores. Os exames foram realizados em consultório odontológico após escovação supervisionada. No primeiro dia de exame, o exame visual utilizando o ICDAS era realizado e em seguida, o exame combinado ao MIC ou SCH. Logo após era realizado o exame radiográfico. Após uma semana, novamente o ICDAS era realizado, e em seguida o exame combinado com o equipamento de FOTI não utilizado na semana anterior. Os exames foram repetidos em 10 pacientes após intervalo mínimo de uma semana para avaliação da reprodutibilidade intra-examinador, a qual apresentou valores de 0,95 (ICDAS), 0,94 (MIC), 0,95 (SCH) e 0,99 (RX) pelo kappa ponderado. Em cicatrículas e fissuras de permanentes, o RX julgou que um número maior de superfícies apresentava lesão em dentina (53) do que os outros métodos (34 a 36); porém não detectou nenhuma lesão em esmalte, as quais foram identificadas pelo ICDAS (94), SCH (107) e MIC (91). Em proximais permanentes, a transiluminação por fibra ótica identificou maior número de proximais como lesão em esmalte - 150 (SCH) e 139 (MIC) - do que o exame visual (106), enquanto o RX identificou somente 43. Em oclusais de decíduos, os quatro métodos julgaram um número aproximadamente similar de superfícies sem lesão (52 a 59) ou com lesão em dentina (21 a 26), assim como para lesões proximais em dentina (31 a 36). Entretanto um número reduzido de lesões proximais decíduas em esmalte foi julgado pelo exame radiográfico (3) em comparação com os outros métodos (15 a 16). Em decíduos, o ICDAS e o FOTI combinado ao exame visual julgaram maior número de lesões proximais em esmalte que o exame radiográfico, sendo que número similar de lesões em dentina foram classificadas pelos quatro métodos em oclusais e proximais de molares decíduos. Em cicatrículas e fissuras de permanentes, tanto o exame visual ICDAS quanto sua combinação aos dois equipamentos de transiluminação apresentaram maior similaridade de superfícies julgadas como lesão em esmalte ou como lesão em dentina, enquanto o exame radiográfico classificou mais superfícies como lesão em dentina e nenhuma como lesão em esmalte. A adição da transiluminação por fibra ótica ao exame visual aumentou em um terço a detecção das lesões cariosas proximais julgadas em dentina pelo ICDAS isoladamente e aproximadamente quadruplicou o número daquelas assim classificadas pela avaliação radiográfica em permanentes.
Resumo:
Neste trabalho, desenvolveu-se um sistema de detecção fotoacústico para medidas simultâneas e independentes dos sinais fotoacústicos dianteiro e traseiro, utilizando dois microfones e um único feixe de excitação. Utiliza-se a diferença de fase entre estes sinais para a determinação da difusividade térmica de materiais, com base na abordagem teórica da técnica da Diferença de Fase dos Dois Feixes (T2F). Na metodologia apresentada não há a necessidade de se alternar o feixe de excitação entre as faces da amostra. Esta característica torna mais rápido o procedimento de medida e simplifica o monitoramento automatizado de processos dinâmicos que afetam a difusividade térmica do material, como a cura de resinas poliméricas. É apresentado o procedimento utilizado para determinar a diferença entre as fases intrínsecas dos microfones e o método empregado para compensar tal diferença e, assim, obter a defasagem entre os sinais fotoacústicos dianteiro e traseiro. O sistema de detecção desenvolvido é avaliado em medidas de difusividade térmica de amostras metálicas (aço inoxidável AISI 304 e aço SAE 1020) e poliméricas (polipropileno e polietileno de baixa densidade). Os resultados obtidos concordam de forma satisfatória com dados disponíveis na literatura. Finalmente, a aplicação do sistema proposto ao monitoramento de cura de amostras de resina epóxi indicou sua potencialidade de acompanhar, em tempo real, este tipo de processo dinâmico.
Resumo:
As lesões impalpáveis da mama que muitas das vezes são assintomáticas, podem corresponder à um estágio de progressão de câncer difícil de ser detectado, durante os exames de rotina de palpação da mulher. O único método possível para a descoberta dessas lesões é através dos exames de imagem da mama, de modo geral, através da mamografia, que geralmente ocorre após os 45 anos. Devido a esses fatores, lesões impalpáveis, são frequentemente, descobertas apenas quando o estágio de desenvolvimento da doença já está avançado e as intervenções terapêuticas são menos reparadoras. Com a finalidade de iniciar a caracterização de tumores impalpáveis iniciais, objetivamos analisar o perfil genético (mutação) e epigenético (metilação de região promotora) de regiões do DNA relacionadas ao gene supressor tumoral TP53, provenientes de biópsias de mulheres residentes do Estado do Rio de Janeiro. Neste trabalho, foram investigadas 34 amostras de tecido de tumor de mama, por sequenciamento de DNA, nos exons de 5 a 8 do gene TP53. Nesta região, não foi encontrada nenhuma mutação. Este resultado pode estar relacionado ao tipo inicial de lesão, de acordo com os dados radiológicos das lesões de categorias 3 e 4 da escala BIRADS. Para verificar o estado de metilação da região promotora do gene TP53, analisamos 30 pares de amostras (sangue e tumor) de pacientes com suspeita de câncer de mama, pela técnica MSP-PCR. Nenhuma amostra tumoral apresentou alteração no estado de metilação na região promotora do gene TP53, quando comparada à amostra normal. Um motivo possível para a disparidade de resultados em relação à outros trabalhos pode ter sido a utilização da técnica. A caracterização das lesões impalpáveis apenas foi iniciada neste trabalho, no qual pudemos constatar que a mutação em TP53 pode ser um evento mais tardio. Portanto, a lesão mamária, em suas diferentes formas, continuará a ser o assunto investigado por nosso grupo, ampliando o número de amostras e alcançando melhor conexão da conduta e dos métodos clínicos já existentes, com as novas possibilidades de diagnóstico via marcadores moleculares em tumores e fluidos biológicos
Resumo:
Gordon E. Moore, co-fundador de Intel, predijo en una publicación del año 1965 que aproximadamente cada dos años se duplicaría el número de transistores presentes en un circuito integrado, debido a las cada vez mejores tecnologías presentes en el proceso de elaboración. A esta ley se la conoce como Ley de Moore y su cumplimiento se ha podido constatar hasta hoy en día. Gracias a ello, con el paso del tiempo cada vez se presentan en el mercado circuitos integrados más potentes, con mayores prestaciones para realizar tareas cada vez más complejas. Un tipo de circuitos integrados que han podido evolucionar de forma importante por dicho motivo, son los dispositivos de lógica programable, circuitos integrados que permiten implementar sobre ellos las funciones lógicas que desee implementar el usuario. Hasta hace no muchos años, dichos dispositivos eran capaces de implementar circuitos compuestos por unas pocas funciones lógicas, pero gracias al proceso de miniaturización predicho por la Ley de Moore, hoy en día son capaces de implementar circuitos tan complejos como puede ser un microprocesador; dichos dispositivos reciben el nombre de FPGA, siglas de Field Programmable Gate Array. Debido a la mayor capacidad y por lo tanto a diseños más complejos implementados sobre las FPGA, en los últimos años han aparecido herramientas cuyo objetivo es hacer más fácil el proceso de ingeniería dentro de un desarrollo en este tipo de dispositivos, como es la herramienta HDL Coder de la compañía MathWorks, creadores también Matlab y Simulink, unas potentes herramientas usadas ampliamente en diferentes ramas de la ingeniería. El presente proyecto tiene como objetivo evaluar el uso de dicha herramienta para el procesado digital de señales, usando para ello una FPGA Cyclone II de la casa Altera. Para ello, se empezará analizando la herramienta escogida comparándola con herramientas de la misma índole, para a continuación seleccionar una aplicación de procesado digital de señal a implementar. Tras diseñar e implementar la aplicación escogida, se deberá simular en PC para finalmente integrarla en la placa de evaluación seleccionada y comprobar su correcto funcionamiento. Tras analizar los resultados de la aplicación de implementada, concretamente un analizador de la frecuencia fundamental de una señal de audio, se ha comprobado que la herramienta HDL Coder, es adecuada para este tipo de desarrollos, facilitando enormemente los procesos tanto de implementación como de validación gracias al mayor nivel de abstracción que aporta.
Resumo:
O diagnóstico precoce e o tratamento são imprescindíveis para o controle da hanseníase, pois visam eliminar o mais precocemente possível as fontes de transmissão. O principal critério de cura da doença é o tempo de tratamento, relacionado às doses fixas da poliquimioterapia. O tempo de tratamento dos pacientes multibacilares foi reduzido de 24 para 12 doses em até 18 meses em 1998. Os objetivos desta tese foram: avaliar a detecção de casos de hanseníase entre os contatos dos pacientes e avaliar fatores de risco associados à piora das incapacidades físicas nos pacientes após a alta do tratamento poliquimioterápico com as 12 doses mensais. Dois artigos foram elaborados. O primeiro artigo avaliou características dos pacientes com hanseníase e de seus contatos associadas ao risco de adoecimento entre os contatos. O segundo artigo avaliou fatores de risco relacionados à piora das incapacidades físicas dos pacientes com hanseníase multibacilar, submetidos ao tratamento com 12 doses fixas da poliquimioterapia. Os resultados mostraram que o risco para hanseníase, relacionado aos contatos foi o tipo de convivência com o caso índice. Entre os fatores dos casos índices, a carga bacilar foi o único associado ao adoecimento dos contatos. Além desses fatores, os contatos que apresentam relação de consangüinidade com o caso índice e os contatos dos pacientes com menor nível de escolaridade mostraram maior chance de se apresentarem doentes no momento do diagnóstico do caso índice. A cicatriz BGC e a vacina recebida após o diagnóstico do caso índice contribuíram independentemente como fatores de proteção. A neuropatia piorou em 40% dos pacientes durante o período de 10 anos após a alta do tratamento. Esta piora foi associada à presença de incapacidades físicas e ao número de lesões cutâneas no momento do diagnóstico assim como à presença de neurite durante o acompanhamento.
Resumo:
Esse trabalho está baseado na investigação dos detectores de falhas aplicando classificadores de classe única. As falhas a serem detectadas são relativas ao estado de funcionamento de cada componente do circuito, especificamente de suas tolerâncias (falha paramétrica). Usando a função de transferência de cada um dos circuitos são gerados e analisados os sinais de saída com os componentes dentro e fora da tolerância. Uma função degrau é aplicada à entrada do circuito, o sinal de saída desse circuito passa por uma função diferenciadora e um filtro. O sinal de saída do filtro passa por um processo de redução de atributos e finalmente, o sinal segue simultaneamente para os classificadores multiclasse e classe única. Na análise são empregados ferramentas de reconhecimento de padrões e de classificação de classe única. Os classficadores multiclasse são capazes de classificar o sinal de saída do circuito em uma das classes de falha para o qual foram treinados. Eles apresentam um bom desempenho quando as classes de falha não possuem superposição e quando eles não são apresentados a classes de falhas para os quais não foram treinados. Comitê de classificadores de classe única podem classificar o sinal de saída em uma ou mais classes de falha e também podem classificá-lo em nenhuma classe. Eles apresentam desempenho comparável ao classificador multiclasse, mas também são capazes detectar casos de sobreposição de classes de falhas e indicar situações de falhas para os quais não foram treinados (falhas desconhecidas). Os resultados obtidos nesse trabalho mostraram que os classificadores de classe única, além de ser compatível com o desempenho do classificador multiclasse quando não há sobreposição, também detectou todas as sobreposições existentes sugerindo as possíveis falhas.
Utilização de métodos de comparação de sequências para a detecção de genes taxonomicamente restritos
Resumo:
Desde a década de 1990, os esforços internacionais para a obtenção de genomas completos levaram à determinação do genoma de inúmeros organismos. Isto, aliado ao grande avanço da computação, tem permitido o uso de abordagens inovadoras no estudo da estrutura, organização e evolução dos genomas e na predição e classificação funcional de genes. Entre os métodos mais comumente empregados nestas análises está a busca por similaridades entre sequências biológicas. Análises comparativas entre genomas completamente sequenciados indicam que cada grupo taxonômico estudado até o momento contém de 10 a 20% de genes sem homólogos reconhecíveis em outras espécies. Acredita-se que estes genes taxonomicamente restritos (TRGs) tenham um papel importante na adaptação a nichos ecológicos particulares, podendo estar envolvidos em importantes processos evolutivos. Entretanto, seu reconhecimento não é simples, sendo necessário distingui-los de ORFs não-funcionais espúrias e/ou artefatos derivados dos processos de anotação gênica. Além disso, genes espécie- ou gêneroespecíficos podem representar uma oportunidade para o desenvolvimento de métodos de identificação e/ou tipagem, tarefa relativamente complicada no caso dos procariotos, onde o método padrão-ouro na atualidade envolve a análise de um grupo de vários genes (MultiLocus Sequence Typing MLST). Neste trabalho utilizamos dados produzidos através de análises comparativas de genomas e de sequências para identificar e caracterizar genes espécie- e gênero-específicos, os quais possam auxiliar no desenvolvimento de novos métodos para identificação e/ou tipagem, além de poderem lançar luz em importantes processos evolutivos (tais como a perda e ou origem de genes em linhagens particulares, bem como a expansão de famílias de genes em linhagens específicas) nos organismos estudados.
Resumo:
ES]El proyecto descrito en este documento consiste en la investigación sobre la viabilidad de detección automática de pulso y respiración a partir de la señal de aceleración, medida mediante un acelerómetro posicionado bien en la carótida o en el pecho del paciente. El motivo de la utilización de la aceleración está principalmente en el bajo costo y por la tecnología sencilla de los acelerómetros. En este documento se explica cómo se ha montado una plataforma para la adquisición de las señales de aceleración y el electrocardiograma emitido por el corazón, en sujetos sanos. Con la base de señales adquirida se ha diseñado un método basado en el dominio de la frecuencia para detectar la presencia de pulso y respiración. Los resultados son prometedores y confirman la posibilidad de desarrollar estos detectores. Las herramientas desarrolladas podrán ser utilizadas para análisis futuros y para seguir avanzando en este estudio.
Resumo:
A presente pesquisa objetiva verificar se os procedimentos utilizados pela Auditoria Interna na detecção de fraudes em uma empresa privada operadora de planos de saúde permitiram a coleta de evidências confiáveis e suficientes para suportar as conclusões dos auditores sobre os fatos reportados nos relatórios de auditoria interna. Para realização do estudo, adotou-se como estratégia investigativa, o estudo de caso único. As técnicas utilizadas ao longo de toda a pesquisa foram as análises documentais e de conteúdo, baseadas nos objetivos propostos no estudo e na fundamentação teórica. A pesquisa concentrou-se nas análises dos relatórios de auditoria interna que reportaram ocorrências de fraudes na empresa estudada, emitidos nos anos de 2010, 2011 e 2012; contudo optou-se, também, por descrever as rotinas e práticas operacionais relacionadas à atuação do departamento de auditoria que contribuíram para uma melhor compreensão dos dados e do resultado do estudo. Os principais achados demonstram que os procedimentos utilizados pela Auditoria Interna na detecção de fraudes permitiram a coleta de evidências de auditoria confiáveis e suficientes para suportar as conclusões dos auditores. O resultado da pesquisa indica, também, que não existe um padrão de utilização dos procedimentos de auditoria. De acordo com o tipo de fraude e objetivo, o auditor interno deve definir quais os procedimentos de auditoria devem ser utilizados na obtenção de evidências de auditoria confiáveis e suficientes para suportar as suas conclusões.
Resumo:
O contexto do estudo é a predição da anemia fetal em gestantes portadoras da doença hemolítica perinatal e tem como objetivo avaliar a acurácia da medida doppler velocimétrica da velocidade máxima do pico sistólico da artéria cerebral média na detecção da anemia fetal na doença hemolítica perinatal. A identificação dos estudos foi realizada com a adoção de bancos de dados gerais (MEDLINE e LILACS) e a partir de referências bibliográficas de outros autores. Os estudos selecionados tinham como critérios serem do tipo observacionais, com gestantes apresentando coombs indireto maior do que 1:8, técnica de insonação do vaso adequada, Vmax-ACM ≥ 1,5MOM, presença obrigatória de comparação com o padrão-ouro (hemoglobina fetal e/ou neonatal), e nível de evidência diagnóstica acima ou igual a 4. Os dados dos estudos selecionados foram alocados em tabelas 2x2 comparando o resultado do teste com o padrão-ouro. A acurácia diagnóstica foi expressa principalmente através da razão de verossimilhança. A revisão incluiu onze estudos, com uma amostra total de 688. Três estudos apresentaram delineamento do tipo prospectivo e nível de evidência diagnóstica categoria 1. A performance do teste em questão apresentou variação razoável. O estudo de Mari et al (2000) foi considerado o de melhor qualidade metodológica, apresentando uma RV(+) de 8,45 e uma RV(-) de 0,02. A medida do doppler da Vmax da ACM como preditor da anemia fetal na doença hemolítica perinatal está consolidada. Porém, alguns pontos precisam ser melhor esclarecidos, como o intervalo ideal dos exames em casos graves e a validade do método em fetos que já foram submetidos a transfusões intra-uterinas.
Resumo:
Por serem organismos filtradores, os mexilhões devem ser extraídos para consumo somente de águas com padrões microbiológicos regulamentados pelo Conselho Nacional do Meio Ambiente, uma vez que intoxicações alimentares de origem bacteriana são as consequências mais comuns relacionadas ao consumo destes moluscos. Após a retirada dos costões, estes organismos passam por processos de fervura, lavagem, acondicionamento em sacos plásticos e transporte até a chegada ao mercado onde são comercializados; etapas estas, realizadas sem cuidados assépticos. Objetivando avaliar a qualidade microbiológica de mexilhões Perna perna coletados na praia de Itaipu, Niterói, RJ; após a sua fervura; e comercializados no Mercado São Pedro, foram realizadas contagens de coliformes totais e termotolerantes e pesquisa de Escherichia coli, Salmonella spp. e Vibrio spp. por metodologia convencional e molecular em amostras obtidas destes locais. Pelo teste de disco-difusão foi observado o perfil de resistência das cepas isoladas. Do total de amostras analisadas (27) apenas 3 dos mexilhões que sofreram processo de aferventação, 1 do comercializado e 3 do in natura, se encontravam dentro dos padrões aceitáveis pela legislação. Não houve diferença significativa entre as contagens de coliformes termotolerantes dos diferentes mexilhões analisados, mas sim entre os períodos seco e chuvoso. Somente uma das nove coletas de água mostrou-se própria para o cultivo de mexilhões (até 14 CF/mL). Foram isoladas e caracterizadas fisiológicamente, 77 estirpes da espécie E. coli, sendo confirmadas molecularmente por PCR os sorotipos EPEC, STEC e EAEC; 4 cepas Salmonella spp. sendo apenas uma confirmada por PCR; e das 57 cepas caracterizadas como Vibrio spp., 51 foram confirmadas por PCR, sendo 46 Vibrio spp., 2 V. cholerae, 1 V. vulnificus, 1 V. parahaemolyticus e 1 V. mimicus. Entre as estirpes de E. coli, 13% apresentaram multirresistência e 15,6% apresentaram resistência múltipla. A estirpe de Salmonella spp. se mostrou sensível a todos os antimicrobiados testados. Das estirpes de Vibrio spp. testadas, 68,6% apresentaram multirresistência e 72,5% apresentaram resistência múltipla. A partir da pesquisa de genes direto do caldo de enriquecimento foi possível detectar todos os genes pesquisados, com exceção para os sorotipos de Salmonella e V. cholerae. Baseado nos resultados do presente trabalho pode-se inferir que os mexilhões, amplamente comercializados no município de Itaipú, podem se constituir em risco para a saúde pública dos consumidores no Rio de Janeiro, necessitando dos órgãos competentes uma eficiente fiscalização nos pontos de venda e cultivo destes moluscos.