125 resultados para Método discriminante de Fisher
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
Giardia lamblia é um protozoário que acomete mais comumente animais jovens e que convivem em grupos. Apesar da alta prevalência, nem todos animais apresentam a doença clínica. Mesmo assim, a giardíase tem importância epidemiológica por possuir um elevado potencial zoonótico. O presente estudo teve como objetivo determinar a freqüência de Giardia lamblia em cães no município de Canoas, RS, Brasil, através do Método de Faust e cols. (1939) e da Técnica de Coloração da Auramina. Os grupos experimentais foram divididos de acordo com a procedência e o sexo. Das 332 amostras analisadas com o Método de Faust e cols, a estimativa em ponto da freqüência obtida foi de 34,04%, podendo variar de 28,95 a 39,13%, dentro de um intervalo de confiança de 95%. Destas amostras, 40,96% foram positivas em animais de canil e 27,11% de rua. O Teste Exato de Fisher aplicado a esses dados revelou existir uma diferença significativa (p = 0,0107) entre as variáveis resultado e procedência. A variável sexo, neste método não apresentou diferença significativa em relação ao resultado (p = 0,8162) totalizando 33,11% de machos positivos e 34,08% de fêmeas infectadas com o parasita. Das 147 amostras realizadas com a Técnica de Coloração da Auramina, 23 foram positivas, totalizando 15,65%. A análise estatística através do Teste McNemar revelou existir diferença significativa entre as duas técnicas (p = 0,0004). O valor Kappa foi igual a 0,07, considerado como um grau de concordância fraco. Os resultados encontrados neste estudo nos permitem afirmar que o Método de Faust e cols. foi o mais adequado para o diagnóstico na infecção por Giardia lamblia, entre os métodos analisados.
Resumo:
Em cenas naturais, ocorrem com certa freqüência classes espectralmente muito similares, isto é, os vetores média são muito próximos. Em situações como esta, dados de baixa dimensionalidade (LandSat-TM, Spot) não permitem uma classificação acurada da cena. Por outro lado, sabe-se que dados em alta dimensionalidade [FUK 90] tornam possível a separação destas classes, desde que as matrizes covariância sejam suficientemente distintas. Neste caso, o problema de natureza prática que surge é o da estimação dos parâmetros que caracterizam a distribuição de cada classe. Na medida em que a dimensionalidade dos dados cresce, aumenta o número de parâmetros a serem estimados, especialmente na matriz covariância. Contudo, é sabido que, no mundo real, a quantidade de amostras de treinamento disponíveis, é freqüentemente muito limitada, ocasionando problemas na estimação dos parâmetros necessários ao classificador, degradando portanto a acurácia do processo de classificação, na medida em que a dimensionalidade dos dados aumenta. O Efeito de Hughes, como é chamado este fenômeno, já é bem conhecido no meio científico, e estudos vêm sendo realizados com o objetivo de mitigar este efeito. Entre as alternativas propostas com a finalidade de mitigar o Efeito de Hughes, encontram-se as técnicas de regularização da matriz covariância. Deste modo, técnicas de regularização para a estimação da matriz covariância das classes, tornam-se um tópico interessante de estudo, bem como o comportamento destas técnicas em ambientes de dados de imagens digitais de alta dimensionalidade em sensoriamento remoto, como por exemplo, os dados fornecidos pelo sensor AVIRIS. Neste estudo, é feita uma contextualização em sensoriamento remoto, descrito o sistema sensor AVIRIS, os princípios da análise discriminante linear (LDA), quadrática (QDA) e regularizada (RDA) são apresentados, bem como os experimentos práticos dos métodos, usando dados reais do sensor. Os resultados mostram que, com um número limitado de amostras de treinamento, as técnicas de regularização da matriz covariância foram eficientes em reduzir o Efeito de Hughes. Quanto à acurácia, em alguns casos o modelo quadrático continua sendo o melhor, apesar do Efeito de Hughes, e em outros casos o método de regularização é superior, além de suavizar este efeito. Esta dissertação está organizada da seguinte maneira: No primeiro capítulo é feita uma introdução aos temas: sensoriamento remoto (radiação eletromagnética, espectro eletromagnético, bandas espectrais, assinatura espectral), são também descritos os conceitos, funcionamento do sensor hiperespectral AVIRIS, e os conceitos básicos de reconhecimento de padrões e da abordagem estatística. No segundo capítulo, é feita uma revisão bibliográfica sobre os problemas associados à dimensionalidade dos dados, à descrição das técnicas paramétricas citadas anteriormente, aos métodos de QDA, LDA e RDA, e testes realizados com outros tipos de dados e seus resultados.O terceiro capítulo versa sobre a metodologia que será utilizada nos dados hiperespectrais disponíveis. O quarto capítulo apresenta os testes e experimentos da Análise Discriminante Regularizada (RDA) em imagens hiperespectrais obtidos pelo sensor AVIRIS. No quinto capítulo são apresentados as conclusões e análise final. A contribuição científica deste estudo, relaciona-se à utilização de métodos de regularização da matriz covariância, originalmente propostos por Friedman [FRI 89] para classificação de dados em alta dimensionalidade (dados sintéticos, dados de enologia), para o caso especifico de dados de sensoriamento remoto em alta dimensionalidade (imagens hiperespectrais). A conclusão principal desta dissertação é que o método RDA é útil no processo de classificação de imagens com dados em alta dimensionalidade e classes com características espectrais muito próximas.
Tipagem HLA pelo método SSP/PCR controle de qualidade dos testes realizados no serviço de imunologia
Resumo:
Ao situar-se no âmbito das ciências sociais, este estudo está orientado no sentido de historicizar um conteúdo da Educação Física de forma a apreender suas origens, desdobramentos e fundamentalmente suas implicações à Educação Física brasileira. A opção pelo Método Francês se deu em função da constatação da importância que este adquiriu no Brasil, não apenas por ter sido conteúdo hegemônico da Educação Física por um longo período de tempo mas, principalmente, porque pela maneira com que se desenvolveu acabou deixando marcas profundas no fazer pedagógico dessa disciplina curricular. Através do aporte teórico-metodológico privilegiado pelo estudo, pude observar que o Método Francês esteve voltado para a formação do soldado combatente e do trabalhador produtivo, sendo orientado por uma matriz biológica e respaldado por uma abordagem positivista de ciência onde o movimento humano foi entendido a partir de seu caráter anátomo-mecânico e os homens e mulheres percebidos unicamente pela sua dimensão biológica. No que se refere à adoção e oficialização do Método Francês no Brasil, percebi que esteve direcionado para o aprimoramento da saúde, o fortalecimento da raça, a consolidação de certas disciplinas e a manutenção da ordem. Razão pela qual foi obrigatório nas instituições escolares, onde traduziu a mesma orientação representando, à nível das atividades físicas, uma transposição do trabalho realizado na caserna à escola.
Resumo:
Este trabalho apresenta um estudo de fluxo de água em barragens de terra, em regimes permanente e transiente, com a utilização do Método de Elementos Finitos. No estudo de fluxo em regime permanente duas formas de abordar o problema são apresentadas e comparadas. A primeira considera, para a discretização da malha de elementos finitos, somente a região saturada, de maneira que a linha freática é obtida através de ajustes desta malha de elementos finitos. A segunda considera toda a região saturada-insaturada, sendo discretizado todo o domínio físico da barragem. A malha de elementos finitos não é modificada ao longo das iterações e a linha freática é obtida por interpolação dentro dos elementos, em função dos valores nodais do potencial de pressões. O desenvolvimento teórico das equações utilizadas para as duas formas de abardagem é apresentado, mostrando onde elas diferem entre si. No estudo de fluxo em regime transiente é utilizado apenas o esquema de malha fixa de elementos finitos.
Resumo:
O objetivo deste trabalho é desenvolver um modelo computacional, baseado no método dos elementos finitos, para o estudo de peças de concreto armado e protendido submetidas a estados planos de tensão. O estudo abrange situações de carga de curta e longa duração, onde consideram-se fluência e retração do concreto e relaxação do aço. São utilizados modelos constitutivos elasto-viscoplásticos para descrever o comportamento dos materiais. Implementou-se um modelo de camadas superpostas para melhor representar o comportamento do concreto, onde o material é composto de diversas camadas que sofrem a mesma deformação. Cada camada possui diferentes características materiais e a tensão total é obtida pela soma das diferentes contribuições de cada camada. Para a fissuração da concreto, utilizou-se um modelo de fissuras distribuídas, que leva em conta a contribuição do concreto entre fissuras. Tanto a amadura passiva como a de pratensão são introduzidas no modelo como uma linha de material mais rígido dentro do elemento de concreto. Os deslocamentos ao longo da armadura são referenciados aos deslocamentos nodais do elemento de concreto. Deste modo, obtém-se uma matriz de rigidez para a armadura com as mesmas dimensões que a matriz de rigidez do elemento de concreto, A matriz de rigidez do elemento concreto-aço é a soma das duas matrizes. Considera-se aderência perfeita entre o concreto e o aço. Os resultados obtidos com esse programa computacionai são comparados com valores experimentais disponíveis.
Resumo:
Esta dissertação pretende consolidar um método quantitativo, flexível e genérico que possa ser útil na otimização experimental dos mais variados produtos e processos industriais medidos por múltiplas variáveis de resposta. O que se pretende com o método é identificar o ajuste ótimo dos fatores controláveis, ou seja, aquele que reduz os custos devido à má qualidade de um produto considerando também os custos de matéria-prima e energia gastos na fabricação desse produto. A redução dos custos gerados pela má qualidade de um produto é alcançada através da minimização dos desvios das variáveis de resposta dos seus valores alvos e maximização da robustez do produto ou processo aos fatores de ruído e a possíveis oscilações nos fatores controláveis, pois toda vez que uma variável de resposta desvia-se do seu valor alvo ou apresenta variabilidade, existe uma perda financeira experimentada pelo seu usuário. Ao longo do texto, faz-se uma revisão da literatura existente sobre o assunto, apresentam-se as etapas do método que devem ser cumpridas e algumas ferramentas consideradas eficientes no cumprimento dessas etapas. Logo após, realizam-se estudos práticos para validar o método e, baseado nesses estudos e no referencial teórico, conclui-se sobre o assunto.
Resumo:
O objetivo do presente trabalho é o estudo do comportamento, em termos de freqüências naturais de estruturas de torres estaiadas, para diversas situações de serviço. Para isso criou-se uma formulação para a determinação dessas freqüências, utilizando o método da matriz de transferência. O procedimento consiste na discretização da estrutura em elementos de barras, massas discretas, molas e amortecedores viscosos, para a representação da estrutura. Com relação aos cabos da torre estaiada, desenvolveu-se uma expressão que nos fornece a rigidez completa dos mesmos, apoiados nos extremos, com amortecimento viscoso e as propriedades físicas e geométricas uniformes. Além disso, os cabos podem ser inclinados e sujeitos à excitação horizontal harmônica no apoio superior. Nesse caso, considera-se uma deformada parabólica do cabo na posição de equilíbrio estático, e por outro lado, os deslocamentos dinâmicos são considerados pequenos. A rigidez do cabo é válida para um ângulo de inclinação que varia de zero (0) a noventa (90) graus. Esse método é aplicável a microcomputadores devido a pouca memória empregada no processamento de dados. Com esse intuito, foi elaborado um programa para microcomputadores de 16 bits, que possibilita o estudo da estrutura da torre sobre o efeito de flexão pura, torção pura ou acoplamento de ambos. Exemplos numéricos de torres estaiadas e do comportamento da rigidez de cabos foram desenvolvidos para as mais diversas situações de cálculo.
Resumo:
As cartas de controle estatístico têm sido amplamente utilizadas no monitoramento do desempenho de processos. Com a crescente informatização dos processos industriais, tem-se verificado um aumento sensível na quantidade de informações disponíveis sobre variáveis de processo. Via de regra, essas variáveis apresentam-se fortemente correlacionadas. Em casos especiais, como nos processos em batelada, tais variáveis descrevem um perfil de variação ao longo do tempo, caracterizando o comportamento normal do processo. Nessas condições especiais, as cartas de controle tradicionais não proporcionam um monitoramento eficaz sobre o processo. Esta dissertação de mestrado apresenta uma alternativa para o monitoramento on line de processos em bateladas: a proposição de uma metodologia para implantação de cartas de controle multivariadas baseadas em componentes principais. A idéia central dessas cartas é monitorar simultaneamente diversas variáveis, controlando somente algumas poucas combinações lineares independentes delas; tais combinações são denominadas componentes principais. O presente trabalho ilustra a metodologia proposta em um estudo de caso realizado na etapa de fermentação do processo de fabricação de cerveja de uma indústria de bebidas, localizada na região metropolitana de Porto Alegre.
Resumo:
Esta dissertação apresenta a análise crítica da aplicação de um método utilizado para implementação da Norma ISO Série 9000. Este método, denominado Bremen Quality Management (BQM), foi desenvolvido na Alemanha, onde vem sendo utilizado com sucesso junto a pequenas e médias empresas (PMEs). O objetivo principal do presente trabalho é analisar se este método também é adequado às necessidades das PMEs brasileiras. O trabalho inicia-se com uma revisão bibliográfica destinada a identificar as dificuldades enfrentadas pelas PMEs durante o processo de implementação da ISO 9000. Foram estudados também métodos potencialmente comparáveis ao BQM utilizados por algumas instituições atuantes na área dos Sistemas da Qualidade, tais como SEBRAE-RS e FUNDATEC-RS. Devido a uma questão de segredo comercial, a especificação formal do Método BQM não se encontra publicamente acessível, pelo que, num segundo momento, foi necessário reunir as informações disponíveis sobre o mesmo de modo a possibilitar a construção de documentação relacionada com a sua formalização. A análise do Método BQM foi realizada a partir da implementação da NBR ISO 9001 em uma empresa de médio porte localizada no Estado do Rio Grande do Sul, utilizando-se para isso a pesquisa participante.A sua implementaçãofoi possível devido à inclusãodessa empresa,bem como da UniversidadeFederaldo Rio Grandedo Sul, num projeto de pesquisa gerenciadopela instituiçãoestrangeiraque criouo MétodoBQM. Pela análise realizada, pode-se constatar que, apesar das oportunidades de melhorias identificadas, o método BQM pode auxiliar as PMEs brasileiras na implementação da ISO 9000. Por fim, são propostas alterações no método estudado, com a finalidade de melhorar a sua adequação às necessidades das PMEs brasileiras.
Resumo:
O objetivo deste trabalho consiste no desenvolvimento de alguns avanços, teóricos e numéricos, no método LTSN visando implementar a primeira versão de um código computacional, para resolver a equação de transporte utilizando formulação LTSN na forma de multigrupos em geometria plana. Os avanços para o método LTSN estão fundamentados na solução iterativa para o sistema de equações que constituem as condições de contorno, um novo método para a busca do valor de keff baseado no método da bissecção. O desenvolvimento desta metodologia permitiu realizar o calculo muito rápido com altas ordens de quadratura e com esforço computacional muito reduzido. Juntos os avanços matemáticos e numéricos, implementados nesta primeira versão de um código fortran, tal como nos códigos já conhecidos permite solucionar a equação de transporte na forma de multigrupos, tanto para o cálculo direto como para o adjunto, com fontes arbitrárias. Este código utiliza de recursos computacionais da linguagem FORTRAN e as bibliotecas LAPACK, para a otimização de seus algoritmos, facilitando o desenvolvimento futuro. A validação deste trabalho foi feita utilizando dois problemas: um relativo ao fluxo angular e escalar, tanto para o fluxo direto como para o adjunto, cuja importância está relacionada com busca de convergência, relação de reciprocidade e comprovação da solução adjunta, e; um problema de criticalidade, para comprovar a eficácia do algoritmo de busca iterativa de keff e espessura crítica. Com este trabalho se abrem muitas possibilidades tanto teóricas como numéricas a investigar com o método LTSN.
Resumo:
Esta dissertação aborda a utilização de métodos de concepção e avaliação ergonômica no desenvolvimento da interface gráfica de um sistema de Correio e Agenda Corporativo. Além dos métodos tradicionais, foi utilizado o método do Design Macroergonômico (DM), proposto por Fogliatto & Guimarães (1999), desenvolvido para auxiliar no projeto ergonômico de produtos e postos de trabalho, que tem como bases a macroergonomia e a ergonomia participativa. No estudo de caso abordado neste trabalho, o DM permitiu que fossem coletadas e analisadas as demandas e os índices de satisfação dos usuários e especialistas quanto à qualidade ergonômica. Os resultados obtidos demonstraram que o Design Macroergonômico, usado de forma integrada com outros métodos, é uma ferramenta útil para a administração do processo de melhoria contínua no desenvolvimento de sistemas com ênfase ergonômica.
Resumo:
o presente trabalho tem por objetivo desenvolver um código computacional destinado à simulaçáo numérica tridimensional e de escoamentos compressíveis hipersônicos em especial para analisar o processo de reentrada de veículos espaciais na atmosfera terrestre. Devido ás temperaturas elevadas encontradas neste tipo de escoamento, efeitos de altas temperaturas sáo incluídos, como excitação vibracional das moléculas e reações químícas. Utiliza-se o modelo de 2 temperaturas (translacional e vibracional);5 espécíes (N2, O2, NO, N, O) e 17 reações químicas de Park [1986 para o modelamento do fenômeno termo-químico. Introduz-se uma formulação baseada no método dos elementos finitos, através do esquema de Taylor-Calerkin, para a discretização do tempo e do espaço e para a solução do sistema de equações. Alguns exemplos e aplicações de problemas hipersônicos bi e tridimensionais, difusivos e não difusivos, são apresentados, incluindo comparações entre os resultados obtidos no presente trabalho e na literatura.
Resumo:
O presente trabalho apresenta um estudo do método de divisão-e-conquista para solução dos auto-sistemas de matrizes tridiagonais simétricas. Inicialmente, explanamos a parte teórica, e posteriormente, por meio de exemplos numéricos mostramos seu funcionamento. Para a realização deste estudo, utilizou-se o software Maple como ferramenta auxiliar. Realizamos comparações e análises dos auto-sistemas encontrados com as rotinas DSTEDC e DSTEQR do LAPACK, que utilizam respectivamente o método de divisão-e-conquista e o método QR e também comparamos estes com os resultados encontrados por nós. Verificamos por meio de testes os tempos, que as rotinas citadas, dispendem na resolução de alguns auto-sistemas. Os resultados apresentados mostram que o método de Divisão-e-Conquista é competitivo com o método tradicional, QR, para o cálculo de autovalores e autovetores de matrizes tridiagonais simétricas.