957 resultados para Validação de métodos
Resumo:
O objetivo desta dissertação é a paralelização e a avaliação do desempenho de alguns métodos de resolução de sistemas lineares esparsos. O DECK foi utilizado para implementação dos métodos em um cluster de PCs. A presente pesquisa é motivada pela vasta utilização de Sistemas de Equações Lineares em várias áreas científicas, especialmente, na modelagem de fenômenos físicos através de Equações Diferenciais Parciais (EDPs). Nessa área, têm sido desenvolvidas pesquisas pelo GMC-PAD – Grupo de Matemática da Computação e Processamento de Alto Desempenho da UFRGS, para as quais esse trabalho vem contribuindo. Outro fator de motivação para a realização dessa pesquisa é a disponibilidade de um cluster de PCs no Instituto de Informática e do ambiente de programação paralela DECK – Distributed Execution and Communication Kernel. O DECK possibilita a programação em ambientes paralelos com memória distribuída e/ou compartilhada. Ele está sendo desenvolvido pelo grupo de pesquisas GPPD – Grupo de Processamento Paralelo e Distribuído e com a paralelização dos métodos, nesse ambiente, objetiva-se também validar seu funcionamento e avaliar seu potencial e seu desempenho. Os sistemas lineares originados pela discretização de EDPs têm, em geral, como características a esparsidade e a numerosa quantidade de incógnitas. Devido ao porte dos sistemas, para a resolução é necessária grande quantidade de memória e velocidade de processamento, característicos de computações de alto desempenho. Dois métodos de resolução foram estudados e paralelizados, um da classe dos métodos diretos, o Algoritmo de Thomas e outro da classe dos iterativos, o Gradiente Conjugado. A forma de paralelizar um método é completamente diferente do outro. Isso porque o método iterativo é formado por operações básicas de álgebra linear, e o método direto é formado por operações elementares entre linhas e colunas da matriz dos coeficientes do sistema linear. Isso permitiu a investigação e experimentação de formas distintas de paralelismo. Do método do Gradiente Conjugado, foram feitas a versão sem précondicionamento e versões pré-condicionadas com o pré-condicionador Diagonal e com o pré-condicionador Polinomial. Do Algoritmo de Thomas, devido a sua formulação, somente a versão básica foi feita. Após a paralelização dos métodos de resolução, avaliou-se o desempenho dos algoritmos paralelos no cluster, através da realização de medidas do tempo de execução e foram calculados o speedup e a eficiência. As medidas empíricas foram realizadas com variações na ordem dos sistemas resolvidos e no número de nodos utilizados do cluster. Essa avaliação também envolveu a comparação entre as complexidades dos algoritmos seqüenciais e a complexidade dos algoritmos paralelos dos métodos. Esta pesquisa demonstra o desempenho de métodos de resolução de sistemas lineares esparsos em um ambiente de alto desempenho, bem como as potencialidades do DECK. Aplicações que envolvam a resolução desses sistemas podem ser realizadas no cluster, a partir do que já foi desenvolvido, bem como, a investigação de précondicionadores, comparação do desempenho com outros métodos de resolução e paralelização dos métodos com outras ferramentas possibilitando uma melhor avaliação do DECK.
Resumo:
Realizou-se um estudo transversal de aplicação de três escalas americanas diagnósticas do funcionamento familiar (FACES III, Beavers-Timberlawn e GARF) em trinta e uma famílias, examinadas na clínica, visando sua validação, em nosso meio, em relação ao padrão-ouro da avaliação clínica, feita através de entrevista familiar semi-estruturada. Também estudou-se o comportamento da escala auto-respondida FACES III em cento e duas famílias da comunidade. Os resultados em relaçõa ao FACES III mostraram uma correlação linear positiva, mas baixa, entre a coesão familiar e risco para doença mental. Não apareceu correlação estatisticamente significativa em relação à adaptabilidade. Os achados confirmam os resultados publicados recentemente na literatura de que o FACES III é um instrumento que não traduz o modelo circumplexo de funcionamento familiar de Olson. As escalas Beavers-Timberlawn e GARF tiveram como resultado correlação positiva e alta com a avaliação clínica, demonstrando grande utilidade na formulação e classificação do diagnóstico do funcionamento familiar.
Resumo:
As equações da cinétiica pontual de um reator nuclear térmico são integradas numericamente, utilizando um método matricial de continuação analitica. Essas equações são essencialmente não-negativas e possuem um autovalor dominante vinculado à reatividade do sistema. Também, descrevem-se os métodos de Hansen e Porsching.
Resumo:
O objetivo principal deste trabalho é apresentar um método recursivo para a determinação da resposta forçada de sistema de segunda ordem na forma de uma íntegra de concolução, proveniente da utilização de propriedades de transição da resposta impulso de tais sistemas. Descrevem-se também diversos métodos analíticos e numéricos desenvolvidos para o cálculo da resposta forçada, bem como as limitações de cada método. As vantagens do método recursivo proposto são notáveis já que não é requerido o cálculo de autovalores das matrizes nem a redução à primeira ordem, e nem o uso de hipóteses adicionais sobre natureza dos coeficientes matriciais do sistema. Como aplicação do método proposto, considera-se o cálculo da resposta dinâmica de estruturas flexíveis sujeitas a excitações arbitrárias tais como terremotos.
Resumo:
A fatoração de números inteiros é um assunto que, embora muito antigo, desperta cada vez mais interesse. Existem vários métodos de criptografia de chave pública, baseados não só em fatoração de inteiros, mas também em resolução de logarítmos discretos, por exemplo, cuja segurança depende da ineficiência dos métodos de fatoração conhecidos. Este trabalho tem como objetivo descrever os principais métodos de fatoração utillizados hoje em dia. Primeiramente, três métodos elementares serão estudados: o método de Fermat e os métodos Rho e p - 1 de Pollard. A seguir, os dois mais poderosos métodos de fatoração para inteiros sem forma especial: o método de curvas elípticas, e o método de peneira quadrática, os quais tomam como base os métodos p - 1 e de Fermat, respectivamente.
Resumo:
Amostras de solo (latossolo vermelho destroférrico) coletadas em três pontos distintos, no município de Caibaté (Região das Missões, RS), na profundidade de aproximadamente 10 cm (da superfície do solo), em diferentes estações do ano e com diferentes tipos de manejo de solo (plantio convencional; plantio direto e cultivo mínimo), foram analisadas com o intuito de verificar a presença e a persistência de pesticidas no solo. Adicionalmente foi avaliada a relação entre a concentração dos produtos e tipo de manejo de solo aplicado. Este estudo é justificado por ser esta região de caráter tipicamente agrícola, com uso sistemático de pesticidas, tais como: monocrotofós, tiabendazole, triadimenol, lufenuron e imazetapir. Primeiramente foram estudadas as melhores condições de extração, considerando as técnicas mais comumente utilizadas, como o soxhlet, o banho e a sonda de ultra-som. As análises foram realizadas por Cromatografia Líquida de Alta Eficiência com Detector UV-visível (lufenuron e imazetapir) e Cromatografia Gasosa com Detector Seletivo de Massas (monocrotofós, tiabendazole e triadimenol), dependendo das características do analito em estudo. Os resultados mostram a presença de todos os pesticidas estudados, permitindo inferir que os mesmos persistem no solo. Além disto, os resultados indicam que não há uma uniformidade da extração dos analitos nas amostras dos solos, que foram extraídas com as técnicas de soxhlet, banho e sonda de ultra-som. Tais diferenças podem ser devido à heterogeneidade das amostras ou uma extração seletiva dos analitos. Quanto as influências do tipo de manejo das lavouras, não foi possível constatar a contribuição destas formas de plantio para a persistência de resíduos de pesticidas no solo.
Resumo:
Este estudo foi motivado pela possibilidade de se empregar os conhecimentos da engenharia mecânica na solução de problemas de engenharia de alimentos por métodos numéricos, assim como pela utilização da dinâmica dos fluidos computacional (CFD) em mais um campo de pesquisa. A idéia básica foi a aplicação do método de elementos finitos na solução de problemas de escoamentos envolvendo mistura de diferentes componentes. Muitos alimentos apresentam-se como fluidos, e seu comportamento material pode ser newtoniano ou não newtoniano, às vezes descrito por relações constitutivas bastante complexas. Utilizou-se uma teoria de misturas apoiada nos conceitos de mecânica do contínuo para a modelagem mecânica do que se passou a considerar como um sistema multicomponente. Necessitou-se de uma detalhada revisão sobre os postulados clássicos da mecânica para que se pudesse recolocá-los, com alguma segurança e embasamento teórico, para sistemas multicomponentes. Tendo em mãos a modelagem do balanço de momentum e massa em sistemas multicomponentes, pôde-se aproximar estas equações através do método de elementos finitos. A literatura aponta que o método clássico de Galerkin não possui a eficiência necessária para a solução das equações de escoamento, que envolvem uma formulação mista onde se faz necessário tomar compatíveis os subespaços de velocidade e pressão, e também devido à natureza assimétrica da aceleração advectiva, o que também aparece como uma dificuldade na solução de problemas de advecçãodifusão, nos casos de advecção dominante. Assim, fez-se uso do método estabilizado tipo GLS, o qual supera as dificuldades enftentadas pelo método de Galerkin clássico em altos números de Reynolds, adicionando termos dependentes da malha, construídos de forma a aumentar a estabilidade da formulação de Galerkin original sem prejudicar sua consistência. Os resultados numéricos dividem-se em três categorias: problemas de transferência de quantidade de movimento para fluidos newtonianos, problemas de transferência de quantidade de movimento para fluidos com não linearidade material e problemas de advecção e difusão de massa em misturas. A comparação de algumas aproximações obtidas com as de outros autores se mostraram concordantes. A aproximação de problemas de fluidos segundo os modelos Carreau e Casson geraram os resultados esperados. A aproximação de um problema de injeção axial com mistura de dois fluidos produziu resultados coerentes, motivando a aplicação prática da aproximação por métodos estabilizados de problemas de misturas.
Resumo:
Esta tese objetiva identificar os impactos dos investimentos em Tecnologia de Informação (TI) nas variáveis estratégicas e na eficiência dos bancos brasileiros. Para a realização da investigação, utilizaram-se vários métodos e técnicas de pesquisa: (1) entrevista com executivos para identificar o papel da TI nos bancos; (2) survey com executivos dos bancos para selecionar as variáveis estratégicas organizacionais em que os efeitos da TI são mais significativos; (3) entrevista com executivos para adaptar as variáveis como input e output observáveis em contas de balanço; e (4) método de Pesquisa Operacional para elaborar um modelo de análise de eficiência e aplicar a técnica de Data Envelopment Analysis (DEA) para avaliar a efetividade de conversão dos investimentos em TI. A entrevista exploratória com os executivos dos bancos permitiu identificar como os bancos utilizam a TI e o seu papel como ferramenta estratégica. O processo de validação e purificação do instrumento (questionário) e dos constructos utilizados na survey fez uso de procedimentos qualitativos e quantitativos, como: validade de face e conteúdo, card sorting, análise de fidedignidade (coeficiente alfa de Cronbach), análise de correlação item- total corrigido (CITC), análise fatorial exploratória nos blocos e entre blocos, e análise fatorial confirmatória. O instrumento também foi validado externamente com executivos de bancos americanos. A partir do conjunto final de construtos, foram identificados variáveis de input e output observáveis em contas de balanço visando à elaboração e à definição do modelo de análise de eficiência. O modelo de eficiência estrutura-se no conceito de efetividade de conversão, que pressupõe que os investimentos em TI, combinados com outras variáveis de input (despesas com pessoal, outras despesas administrativas, e despesas de internacionalização) transformam-se em output (receitas líquidas de intermediação financeira, de prestação de serviços e de operações internacionais). Uma característica adicional do modelo é a representação em dois estágios: os investimentos em TI geram incremento nas receitas, mas esta relação é intermediada pela acumulação de ativos, financeiros e não financeiros. Os dados de balanço dos 41 bancos incluídos na amostra, de 1995 a 1999, foram fornecidos pelo Banco Central do Brasil. A aplicação do modelo na amostra selecionada indica claramente que apenas investir em TI não proporciona efetiva eficiência. Por outro lado, os bancos que mais investiram em TI no período analisado ganharam eficiência relativamente ao conjunto de bancos analisados. Dentre os resultados desta tese, podem ser destacados: o modelo de pesquisa, o conjunto de constructos e o instrumento (questionário), o processo de observação de input e output em contas de balanço e o modelo de análise de eficiência.
Resumo:
O setor calçadista brasileiro, da mesma forma que toda a economia nacional, vem sofrendo transformações nos últimos anos, o que obriga as empresas do setor a buscar informações sobre métodos de custeio mais acurados, para que consigam atingir a eficiência e a competitividade necessárias em suas decisões, garantindo assim a sua permanência no mercado. Este trabalho propõe um metodologia para a implantação de um Sistema de Custeio Baseado em Atividades ABC, ferramenta esta que promove um aprimoramento no controle dos recursos consumidos pela empresa, o aperfeiçoamento contínuo dos processos e fornece informações relevantes na Gestão Estratégica de Custos, através da compreensão das atividades desenvolvidas e da dinâmica dos custos, que são proporcionadas pela metodologia proposta. Com a finalidade de avaliar a metodologia proposta, é desenvolvida uma aplicação em uma indústria calçadista, a Indústria e Comércio de Calçados Andarilho Ltda, em Frederico Westphalen - RS e também é realizada a validação para uma maior fidedignidade do Sistema de Custeio Baseado em Atividades - ABC. Neste trabalho, portanto, pode-se conhecer uma metodologia para a implantação deste sistema, além de avaliá-lo através da descrição do seu uso na empresa e compreender seus principais passos para implementação, benefícios, dificuldades e resultados que o referido sistema pode proporcionar.
Resumo:
Sistemas de controle industriais precisam atender a requisitos temporais para garantir seu correto funcionamento, sendo por isto considerados sistemas tempo-real. Quando tais sistemas são distribuídos, tais como redes de sensores, atuadores e controladores interligados por barramentos de campo, a comunicação desempenha um papel importante no comportamento temporal. Este trabalho propõe uma ferramenta para validar o comportamento temporal da comunicação em um protocolo de barramento de campo, o Foundation Fieldbus. A proposta inclui a especificação de requisitos e a visualização da validação. Pretende-se auxiliar a compreensão do comportamento temporal e possibilitar a depuração de sistemas tempo-real distribuídos. O sistema desenvolvido encontra-se operacional e foi validado em diversos estudos de caso, os quais são descritos no presente trabalho.
Resumo:
Resumo não disponível.
Resumo:
A presente dissertação insere-se no contexto de um projeto global de pesquisa, em desenvolvimento no GESID-PPGA/EA/UFRGS, com a cooperação de algumas universidades estrangeiras. Tal projeto tem como tema a percepção do processo decisório individual e a influência da cultura nacional e da experiência decisória. Para estudar a inter-relação destes assuntos é preciso, antes de mais nada, elaborar um conjunto de instrumentos que permitam investigar a percepção das pessoas sobre a tomada de decisão. Este é o objetivo principal do presente trabalho, que refere-se à primeira fase desse projeto global: a partir da literatura, e do conhecimento de um grupo de pesquisadores, conceber e desenvolver um conjunto de instrumentos (quantitativos e qualitativos) válidos para estudar a decisão. E ainda estabelecer uma metodologia de aplicação desse instrumental, a qual possa determinar uma seqüência (ordem) e forma de aplicação mais adequada. Para tanto, primeiramente foram definidas as 3 questões de pesquisa, que nortearam o desenvolvimento dos instrumentos de pesquisa, as quais deverão ser investigadas no contexto do projeto global de pesquisa, e que podem ser resumidas da seguinte forma: (1) Independentemente da cultura nacional ou do nível de experiência decisória dos indivíduos é possível identificar fatores comuns (passos, princípios, insights) a respeito da forma como as pessoas percebem o processo decisório individual, especialmente se tomado o modelo de processo decisório da “Racionalidade limitada” de Simon (1947) como padrão de comparação? (2) A cultura atua como fator de diferenciação na percepção do processo decisório individual? (3) A Experiência Decisória (vivência) dos indivíduos influencia a forma como eles percebem o processo decisório individual? A definição destas 3 questões de pesquisa possibilitou a concepção dos instrumentos, nos quais posteriormente foi realizada uma validação de conteúdo (por uma comissão de juízes) e de sua seqüência de aplicação (testando-se diferentes ordens), bem como a verificação da sua fidedignidade (através do Teste-reteste). Com este processo obteve-se os seguintes resultados: (1) projeto global consolidado; (2) conjunto de instrumentos de pesquisa concebido e validado; (3) seqüência de aplicação do instrumental definida e validada; (4) quadro de construtos definido fornecendo subsídios para a definição de um protocolo de análise de dados; (5) concepção de um método para verificação da "contaminação" de instrumentos de pesquisa.