858 resultados para Detecção de partículas
Resumo:
Este trabalho propõe a utilização da arquitetura Trace como um sistema de detecção de intrusão. A arquitetura Trace oferece suporte ao gerenciamento de protocolos de alto nível, serviços e aplicações através de uma abordagem baseada na observação passiva de interações de protocolos (traços) no tráfego de rede. Para descrever os cenários a serem monitorados, é utilizada uma linguagem baseada em máquinas de estado. Esta linguagem permite caracterizar aspectos observáveis do tráfego capturado com vistas a sua associação com formas de ataque. O trabalho mostra, através de exemplos, que esta linguagem é adequada para a modelagem de assinaturas de ataques e propõe extensões para permitir a especificação de um número maior de cenários ligados ao gerenciamento de segurançaa. Em seguida, é descrita a implementação do agente de monitoração, componente-chave da arquitetura Trace, e sua utilização para detectar intrusões. Esse agente (a) captura o tráfego da rede, (b) observa a ocorrência dos traços programados e (c) armazena estatísticas sobre a sua ocorrência em uma base de informações de gerenciamento (MIB { Management Information Base). O uso de SNMP permite a recuperação destas informações relativas µa ocorrências dos ataques. A solução apresentada mostrou ser apropriada para resolver duas classes de problemas dos sistemas de detecção de intrusão: o excesso de falsos positivos e a dificuldade em se modelar certos ataques.
Resumo:
A segurança no ambiente de redes de computadores é um elemento essencial para a proteção dos recursos da rede, dos sistemas e das informações. Os mecanismos de segurança normalmente empregados são criptografia de dados, firewalls, mecanismos de controle de acesso e sistemas de detecção de intrusão. Os sistemas de detecção de intrusão têm sido alvo de várias pesquisas, pois é um mecanismo muito importante para monitoração e detecção de eventos suspeitos em um ambiente de redes de computadores. As pesquisas nessa área visam aprimorar os mecanismos de detecção de forma a aumentar a sua eficiência. Este trabalho está focado na área de detecção de anomalias baseada na utilização de métodos estatísticos para identificar desvios de comportamento e controlar o acesso aos recursos da rede. O principal objetivo é criar um mecanismo de controle de usuários da rede, de forma a reconhecer a legitimidade do usuário através de suas ações. O sistema proposto utilizou média e desvio padrão para detecção de desvios no comportamento dos usuários. Os resultados obtidos através da monitoração do comportamento dos usuários e aplicação das medidas estatísticas, permitiram verificar a sua validade para o reconhecimento dos desvios de comportamento dos usuários. Portanto, confirmou-se a hipótese de que estas medidas podem ser utilizadas para determinar a legitimidade de um usuário, bem como detectar anomalias de comportamento. As análises dos resultados de média e desvio padrão permitiram concluir que, além de observar os seus valores estanques, é necessário observar o seu comportamento, ou seja, verificar se os valores de média e desvio crescem ou decrescem. Além da média e do desvio padrão, identificou-se também a necessidade de utilização de outra medida para refletir o quanto não se sabe sobre o comportamento de um usuário. Esta medida é necessária, pois a média e o desvio padrão são calculados com base apenas nas informações conhecidas, ou seja, informações registradas no perfil do usuário. Quando o usuário faz acessos a hosts e serviços desconhecidos, ou seja, não registrados, eles não são representados através destas medidas. Assim sendo, este trabalho propõe a utilização de uma medida denominada de grau de desconhecimento, utilizada para medir quantos acessos diferentes do seu perfil o usuário está realizando. O sistema de detecção de anomalias necessita combinar as medidas acima descritas e decidir se deve tomar uma ação no sistema. Pra este fim, propõe-se a utilização de sistemas de regras de produção e lógica fuzzy, que permitem a análise das medidas resultantes e execução do processo de decisão que irá desencadear uma ação no sistema. O trabalho também discute a integração do sistema de detecção de intrusão proposto à aplicação de gerenciamento SNMP e ao gerenciamento baseado em políticas.
Resumo:
O vírus da anemia das galinhas (CAV) pode causar imunodepressão em galinhas de todas as idades e doença nos frangos jovens, a qual é caracterizada por severa anemia, atrofia da medula óssea e hemorragias. A doença clínica é rara hoje, porém a forma subclínica é freqüentemente encontrada em criações comerciais e resulta num considerável decréscimo do desempenho. O CAV apresenta variabilidade genética, entretanto, em relação às amostras brasileiras do CAV, pouco ou quase nada desta variabilidade é conhecida. O presente trabalho descreve um protocolo de Nested-PCR para a detecção do CAV diretamente de amostras clínicas e analisa filogeneticamente as seqüências nucleotídicas das amostras positivas buscando verificar se a patologia apresentada por estas está relacionada com a variabilidade genética. Para a extração de DNA, o método baseado em tiocianato de guanidina mostrou-se mais eficiente e prático de executar que os demais testados. Foi selecionado um par de primers que amplifica uma região de 664 pb do gene vp1 e outro par que amplifica uma região interna de 539 pb para a realização da Nested-PCR. A especificidade dos primers foi avaliada utilizando amostras de lotes controlados para CAV e 30 diferentes isolados de vírus e bactérias causadoras de doenças em galinhas, as quais não geraram produto de amplificação. A sensibilidade foi determinada a partir de diluições seriadas da vacina comercial para o CAV. A Nested-PCR mostrou ser mais sensível do que a PCR e foi capaz de detectar 0,16 DICC50% da cepa vacinal. Além disso, a Nested-PCR detectou DNA viral em tecidos, soro e cama aviária de lotes com e sem sintomas clínicos.O produto de amplificação de 539 pb do gene vp1 de 44 amostras, provenientes de diferentes Estados produtores de frangos do Brasil, foi seqüenciado e foram encontradas 10 novas seqüências nucleotídicas do CAV. Estas 10 seqüências nucleotídicas foram analisadas filogeneticamente pelo método de distância neighbour joining com 1000 replicações o qual, mostrou que não houve correlação entre a patogenia apresentada nos animais e os grupos genéticos. Estas seqüências nucleotídicas também foram comparadas com 30 cepas de CAV isoladas em outros países e não foi observada correlação entre a distribuição geográfica e a variabilidade genética. Substituições de amino ácidos foram observadas em 9 posições sendo que, 65R substituindo o resíduo Q e 98F substituindo o resíduo Y ainda não haviam sido observadas. Conclui-se que, como técnica de detecção do CAV, o protocolo de Nested-PCR aqui descrito é mais sensível e menos trabalhoso do que o isolamento viral. As amostras Brasileiras de CAV possuem características filogenéticas similares às isoladas em outros países.
Resumo:
Este estudo tem por objetivo definir um sistema de flotação em coluna para ser utilizado, em um sistema rougher, para flotar partículas grossas de fluorita. Para esse fim, foi proposta uma detalhada investigação de parâmetros que poderiam influenciar o processo de flotação de partículas grossas. Foram definidos dois perfis granulométricos com alto conteúdo de grossos em comparação à granulometria convencional, e foi analisada a variação dos parâmetros de separação (recuperação e teor) em função de determinados parâmetros operacionais, como concentração do agente coletor (tall oil), velocidade superficial do ar, concentração de sólidos na polpa de alimentação, velocidade superficial de água de bias e de água de lavagem. Nesse trabalho, a inovação proposta é a utilização da coluna de flotação para a concentração de partículas grossas em uma etapa rougher, trabalhando em regime de bias negativo (velocidade de alimentação maior que a velocidade de rejeito), como aplicação e otimização de um sistema de flotação rápida (tipo flash flotation) em coluna curta. Os resultados obtidos em coluna mostram que, mesmo com uma granulometria grossa, é possível atingir valores de recuperação e teor semelhantes aos anotados na flotação de finos. Nos ensaios com bias negativo (0,3 cm/s), foram registrados teores acima de 85% de fluorita nos concentrados, com recuperações em torno de 70%. Os teores de sílica e carbonato foram menores em comparação a um sistema convencional, em escala de bancada. Os ensaios com adição de água de bias também apresentaram bons resultados metalúrgicos. Nesses ensaios a mobilidade das bolhas de ar apresentou um aumento, uma vez que o fluxo ascendente de água de bias ajudou a diminuir o conteúdo de ar na zona de coleção. Esse efeito foi comprovado pelos menores valores de hold up. O ensaio com bias negativo e água de lavagem, aqui considerado como um indicativo para novos estudos, mostrou um efeito negativo da água com relação à recuperação, mas bastante positivo com relação à seletividade, uma vez que baixos valores de teor de sílica e carbonato foram observados, sendo que nesse sistema uma única etapa rougher foi suficiente para a obtenção de fluorita tipo cerâmico. A partir dos resultados, é possível afirmar que a coluna de flotação, operando em regime de bias negativo, se mostra um equipamento eficiente na recuperação de partículas minerais grossas, podendo ser considerada uma rota tecnicamente adequada para o aproveitamento, concentração e controle de qualidade de minérios, como o de fluorita.
Resumo:
Esta dissertação é apresentada sob a forma de quatro artigos. O artigo I avaliou a concordância e a acurácia no diagnóstico da situação do periápice de molares e prémolares inferiores portadores ou não de patologia periapical. Quarenta radiografias periapicais foram selecionadas, vinte de dentes com vitalidade pulpar e sem radiolucências periapicais e vinte de dentes com necrose pulpar. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas no formato JPEG 12. As imagens digitalizadas foram apresentadas no formato de slides com fundo preto no programa PowerPoint, sendo projetadas em equipamento multimídia para dois grupos de dez observadores, estudantes de pós-graduação de uma mesma instituição de ensino, simultaneamente, com repetição de 20% dos casos. Os observadores apresentaram ampla variação do percentual de concordância entre diagnósticos repetidos, contudo, quando agrupados por especialidade, endodontistas e radiologistas apresentaram percentuais de concordância de 62,50 e 66,25%, respectivamente. Na análise da concordância interobservadores, ambos os grupos apresentaram desempenho semelhante, sendo este superior entre os alunos de radiologia (Kendall´s W= 0,816 e 0,662 respectivamente). Em relação à especificidade, observou-se desempenho idêntico para os dois grupos (70 a 95%), contudo os alunos de radiologia apresentaram sensibilidade ligeiramente superior (70 a 95%). O artigo II verificou, in vitro, se é possível medir com confiabilidade, utilizando a tomografia computadorizada, a distância entre as corticais ósseas e os ápices dentários de molares e pré-molares em mandíbulas humanas secas, além de determinar a relação de proximidade, dos dois grupos, com as corticais. As imagens das peças ósseas foram obtidas por tomografia computadorizada. A partir delas mensurações foram realizadas, por quatro observadores, três não calibrados (A, B e C) e um calibrado (D). A concordância interexaminador, para os observadores A, B e C, assim como a intra para o observador D foram calculadas por meio do Teste de Concordância de Kendall. A partir das médias geradas (observador D) foi calculada a comparação entre os grupos de ápices e as medidas, utilizando os Testes Não-Paramétricos de Kruskal Wallis e Wilcoxon, ambos com a=5%. Uma boa concordância tanto inter quanto intra-examinador foi observada. A tomografia computadorizada mostrou-se reprodutível para a obtenção da distância entre os ápices dentários e as corticais ósseas, tanto na avaliação inter quanto intra-observador. Não foram encontradas diferenças estatisticamente significativas quanto á posição dos ápices de raízes de pré-molares e de molares, contudo os prémolares apresentaram seus ápices significativamente mais próximos da cortical vestibular do que da lingual. O artigo III avaliou o desempenho diagnóstico de radiografias periapicais em diferentes estágios de perda óssea (leve, moderada e severa), digitalmente simulada na região apical. A partir de radiografias trinta ápices dentários de pré-molares e molares inferiores sem radiolucências foram selecionados. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas no formato JPEG 12. Na imagem inicial (original) os sítios apicais selecionados foram demarcados por um quadrado, as mesmas foram digitalmente reproduzidas seis vezes e numeradas em ordem crescente, formando sete conjuntos. A perda óssea foi digitalmente simulada com as ferramentas lápis (modelo mecânico) e spray (modelo químico), com tinta preta, em intensidade de 3%, 5% e 8%. Os pares de imagens (inicial e experimental) e subtrações foram avaliados por três observadores, com repetição de 20% dos casos. O Coeficiente de Correlação de Spearman e o Teste Não Paramétrico de Wilcoxon mostraram uma boa concordância entre a primeira e a segunda medida para os dois modelos, com exceção de um observador. Através da análise das curvas ROC (p> 0,05) observou-se diferença significativa entre os métodos para ambos os modelos nas intensidades de 3% e 5%. Não houve diferença significativa para a intensidade de 8%. A subtração digital qualitativa mostrou desempenho significativamente melhor do que a avaliação de pares de radiografias para ambos os modelos de reabsorção simulada nas intensidades leve e moderada. O artigo IV avaliou, in vitro, os diagnósticos obtidos de pares de radiografias, subtração radiográfica de imagens digitais diretas e digitalizadas em defeitos ósseos periapicais incipientes criados por aplicação de solução ácida. Em quarenta sítios apicais de mandíbulas humanas secas foram criados defeitos ósseos, por meio da aplicação de ácido perclórico 70%, nos tempos 6, 10, 24, 48 e 54 horas. As radiografias convencionais e as imagens digitais diretas foram obtidas duas vezes no tempo zero e, seqüencialmente, antes de cada nova aplicação de ácido. As incidências foram padronizadas fixando os elementos geométricos. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas, assim como as digitais diretas, no formato TIFF. O programa Imagelab foi utilizado para a subtração das imagens digitais indiretas e diretas. A subtração radiográfica das imagens digitalizadas e os pares de imagem digital foram avaliados por um observador experiente, sendo 20% repetidas durante o exame. A análise quantitativa da subtração radiográfica de imagens diretas foi realizada no programa ImageTool. Os resultados das análises qualitativa e quantitativa foram avaliados por meio da ANOVA, sendo a primeira complementada pelo Teste de Comparações Múltiplas Dunnett T3 e a segunda pelo Teste de Tukey, ambos com a=5%. O observador apresentou coeficiente de Kappa = 0,739 para subtração e 0,788 para os pares de imagem. No tempo 0 houve acerto de diagnóstico em 100 e 90% dos casos para subtração e pares de imagem, respectivamente. Nos tempo 6 e 10/24 foram identificadas, para subtração, alterações em 20 e 25% dos casos e para os pares de imagem em 2,5 e 10% dos casos. A proporção de acertos aumentou significativamente nos tempos 48 e 54 horas, tanto para subtração – 80 e 82,5% – quanto para os pares de imagem – 47,5 e 52,5%. A ANOVA evidenciou diferenças estatisticamente significativas entre as áreas controle nos tempos 0/6 e 48/54. Comparando áreas teste e controle, observou-se que aquela apresentou valores médios de densidade óptica significativamente menores nos tempos 24, 48 e 54. Conclui-se que tanto a avaliação qualitativa como a quantitativa de imagens de subtração apresentaram melhor desempenho que a avaliação dos pares de imagem na detecção de defeitos incipientes no periápice.
Resumo:
A giardíase e a criptosporidiose estão entre as enfermidades de veiculação hídrica originadas por protozoários que têm ganhado maior notoriedade nas últimas décadas. Os microrganismos causadores dessas doenças têm-se tornado um desafio para as empresas de abastecimento de água. Este trabalho teve como objetivo verificar a ocorrência dos protozoários Cryptosporidium sp e Giardia sp nas águas brutas de quatro afluentes do Lago Guaíba: Rios Taquari, Caí, dos Sinos e Gravataí. Juntos, abastecem uma população de dezenas de municípios da Região Metropolitana de Porto Alegre. Foram feitas amostragens mensais, durante doze meses, em cada afluente. Foi empregado o método de filtração em membrana para pré-concentração, centrifugação para concentração, separação imunomagnética para purificação e comparados três métodos de detecção para ambos os microrganismos: DAPI (4’,6-diamidino-2-fenilindol), Safranina e Kinyoun para Cryptosporidium e DAPI, Iodo Lugol e Iodo Tricrômico para Giardia. A avaliação microscópica e contagem de (oo)cistos foram feitas utilizando-se microscopia de imunofluorescência e contraste de fase para o DAPI e microscopia óptica para as demais colorações. Obtiveram-se os seguintes resultados: para os Rios Taquari, Caí, dos Sinos e Gravataí, respectivamente: 75, 42, 33 e 25% das amostras foram positivas para Cryptosporidium e 92, 83, 67 e 50% para Giardia. As concentrações médias de Giardia foram superiores às de Cryptosporidium em todos os quatro afluentes. Os valores médios observados foram: 80 oocistos e 176 cistos/100L no Taquari; 47 oocistos e 66 cistos/100L no Caí; 19 oocistos e 53 cistos/100L no Sinos; 16 oocistos e 92 cistos/100L no Gravataí. Estes podem estar subestimados devido à baixa recuperação dos métodos analíticos existentes e empregados. As densidades encontradas indicam que os protozoários estão disseminados nas águas superficiais dos formadores do Lago Guaíba.
Resumo:
Resumo não disponível.
Resumo:
A utilização de reações nucleares ressonantes estreitas em baixas energias é uma ferramenta importante para a determinação de distribuições de elementos leves em filmes finos com resolução em profundidade subnanométrica. O objetivo do trabalho descrito ao longo da presente dissertação é aprimorar os métodos utilizados para a aquisição e interpretação das curvas experimentais. A obtenção das curvas experimentais consiste na detecção dos produtos das reações nucleares em função da energia das partículas incidentes, fazendo necessária variar a energia das partículas do feixe em passos discretos no intervalo desejado. Neste trabalho implementou-se um sistema automático para o controle e incremento da energia do feixe e monitoramento dos produtos das reações nucleares. Esse sistema de varredura automático de energia, além de aumentar consideravelmente a velocidade da medida, aumenta a qualidade das curvas experimentais obtidas. Para a interpretação das curvas de excitação experimentais, foi implementado um programa em linguagem de programação C, baseado na teoria estocástica, que permite simular numericamente as curvas de excitação. Para demonstrar a sua funcionalidade o método desenvolvido foi aplicado para verificar a estabilidade termodinâmica de filmes dielétricos ultrafinos depositados sobre silício, que foram posteriormente nitretados por plasma.
Resumo:
Resumo não disponível
Resumo:
A toxoplasmose é uma das enfermidades parasitárias mais difundidas entre as transmissíveis. Novos aspectos parecem justificar o reaparecimento da questão da toxoplasmose, uma vez que ela vem sendo diagnosticada em um número crescente de pacientes com imunossupressão devida a várias causas tais como doenças malignas, transplantes de órgãos e principalmente, a Síndrome da Imunodeficiência Adquirida (AIDS). Mais de 50% da população humana mundial acha-se infectada pelo Toxoplasma gondii com variações determinadas por fatores climáticos, sócio-econômicos, tipo de contato com animais, em especial o gato e costumes alimentares relacionados ao consumo de carnes. O T. gondii é um protozoário que infecta praticamente todas as espécies animais. A caprinocultura é uma atividade bastante exercida no Estado, sendo que representa 0,4% de sua atividade pecuária total. O objetivo deste trabalho foi avaliar o papel desempenhado pela espécie caprina na transmissão do T.gondii. A amostragem foi estratificada por idade e gênero. Foram analisadas 360 amostras de soros de caprinos, através da técnica de Hemaglutinaçao Indireta (HAI) e Imunofluorescência Indireta (IFI). Os resultados obtidos pela HAI estimam uma freqüência de 19 % de soro-positividade e pela IFI de 30%, o que representa índices elevados. Em relação a Hemaglutinação Indireta, na variável gênero, foi observada uma freqüência de 20,1% de soropositividade para os machos e 19,3% para as fêmeas, enquanto que na variável idade, os resultados demonstraram freqüências de 16,5% para os indivíduos jovens e 21,1% para os adultos. No que tange à Imunofluorescência Indireta, a variável gênero demonstrou uma freqüência de 14,44% de soropositivos para os machos e 15,56% para as fêmeas. Na variável idade, através desta mesma técnica, observou-se uma freqüência de soropositividade de 13,06% para indivíduos jovens e de 16,94% para indivíduos adultos. Ao compararem-se as duas técnicas os dados obtidos revelam uma associação significativa entre elas, com uma índice de co-positividade para a HAI de 78,6% e de co-negatividade de 81,7%. O índice Kappa utilizado para medir o grau de concordância entre as duas técnicas foi igual a 0,5% que evidencia um grau de concordância moderado entre as técnicas, recomendando, desta forma o uso cauteloso da HAI na espécie caprina. Os dados obtidos nos permitem concluir que os caprinos criados na região estudada podem ser fonte de transmissão de T. gondii.
Resumo:
O tráfego de veículos, principalmente nas vias públicas de regiões densamente povoadas, tem sido objeto de preocupação por diversos aspectos: segurança no trânsito, supervisão da frota, controle de poluição, prevenção, registro de irregularidades, etc. Sistemas eletrônicos tradicionais são apontados como limitados pelas dificuldades apresentadas na instalação dos sensores e poucos recursos para extração de informações. Este trabalho propõe um sistema baseado no processamento digital de imagens em vídeo para detectar, acompanhar e extrair informações de um veículo em movimento, tais como: posição, velocidade e dimensões. Embora técnicas de pré-processamento sejam empregadas para minimizar problemas iluminação e trepidação, informações obtidas nas etapas finais do processamento, tendem a distorcer em função destes fatores. Algoritmos baseados em análise probabilística no domínio espaço temporal de imagens 2-D são propostos para segmentar o objeto mesmo na presença destes fatores. A fim de tornar o acompanhamento mais robusto a oclusões e pixels espúrio s, é proposto um método que detecta e rejeita posições inconsistentes do objeto de acordo com a estimativa de sua próxima posição.