1000 resultados para Método multigrid algébrico
Resumo:
A necessidade de obter solução de grandes sistemas lineares resultantes de processos de discretização de equações diferenciais parciais provenientes da modelagem de diferentes fenômenos físicos conduz à busca de técnicas numéricas escaláveis. Métodos multigrid são classificados como algoritmos escaláveis.Um estimador de erros deve estar associado à solução numérica do problema discreto de modo a propiciar a adequada avaliação da solução obtida pelo processo de aproximação. Nesse contexto, a presente tese caracteriza-se pela proposta de reutilização das estruturas matriciais hierárquicas de operadores de transferência e restrição dos métodos multigrid algébricos para acelerar o tempo de solução dos sistemas lineares associados à equação do transporte de contaminantes em meio poroso saturado. Adicionalmente, caracteriza-se pela implementação das estimativas residuais para os problemas que envolvem dados constantes ou não constantes, os regimes de pequena ou grande advecção e pela proposta de utilização das estimativas residuais associadas ao termo de fonte e à condição inicial para construir procedimentos adaptativos para os dados do problema. O desenvolvimento dos códigos do método de elementos finitos, do estimador residual e dos procedimentos adaptativos foram baseados no projeto FEniCS, utilizando a linguagem de programação PYTHONR e desenvolvidos na plataforma Eclipse. A implementação dos métodos multigrid algébricos com reutilização considera a biblioteca PyAMG. Baseado na reutilização das estruturas hierárquicas, os métodos multigrid com reutilização com parâmetro fixo e automática são propostos, e esses conceitos são estendidos para os métodos iterativos não-estacionários tais como GMRES e BICGSTAB. Os resultados numéricos mostraram que o estimador residual captura o comportamento do erro real da solução numérica, e fornece algoritmos adaptativos para os dados cuja malha retornada produz uma solução numérica similar à uma malha uniforme com mais elementos. Adicionalmente, os métodos com reutilização são mais rápidos que os métodos que não empregam o processo de reutilização de estruturas. Além disso, a eficiência dos métodos com reutilização também pode ser observada na solução do problema auxiliar, o qual é necessário para obtenção das estimativas residuais para o regime de grande advecção. Esses resultados englobam tanto os métodos multigrid algébricos do tipo SA quanto os métodos pré-condicionados por métodos multigrid algébrico SA, e envolvem o transporte de contaminantes em regime de pequena e grande advecção, malhas estruturadas e não estruturadas, problemas bidimensionais, problemas tridimensionais e domínios com diferentes escalas.
Resumo:
Neste trabalho, desenvolve-se um método “multigrid” para a aproximação angular da solução da equação de transporte de partículas em uma placa plana, baseado na formulação LTSN com dependência contínua na variável angular. Para tanto, aplica-se a formulação LTSN sobre o conjunto de equações SN para determinar o fluxo angular de partículas nas N direções discretas referentes a uma malha grossa (N pequeno) e em seguida, usando os fluxos conhecidos, aplica-se a formulação LTSN com dependência angular contínua, para avaliar o fluxo angular nas M direções discretas referentes a uma malha fina (M grande). São apresentadas simulações numéricas que ilustram a capacidade desse método, denotado por MGLTSMN , no que diz respeito à redução do esforço computacional na aproximação da solução para problemas que requerem elevadas ordens de quadratura e alto grau de anisotropia.
Resumo:
O fenômeno da turbulência está presente na maioria dos escoamentos observados na indústria e na natureza. Muitas são as considerações a respeito das dificuldades relacionadas à caracterização dos escoamentos turbulentos. Uma das muitas questões trata do procedimento de análise do problema através da descrição estatística dos campos por grandezas “médias”, o que leva ao problema de fechamento e à modelagem do tensor de Reynolds, normalmente com modelos baseados no conceito de viscosidade turbulenta. Os modelos de turbulência já existentes apresentam algumas deficiências na previsão do escoamento, além de outras limitações, o que justifica a busca por novas abordagens para o tratamento da turbulência. Neste trabalho, o problema de fechamento é tratado segundo a modelagem turbulenta baseada no conceito de viscosidade turbulenta. Um novo modelo de turbulência é proposto, que admite a existência de vórtices imersos no escoamento e aplica conceitos e definições relacionados à identificação de vórtices, com o uso do critério de identificação Q , que caracteriza a região do escoamento ocupada pelo vórtice. Propõe-se a investigação da aplicabilidade do critério Q em conjunto com o modelo k − ε , para o desenvolvimento de um novo modelo de turbulência chamado k − ε −Q . Validou-se a aplicabilidade do modelo através de um código numérico computacional para tratamento de escoamentos turbulentos. A solução numérica foi obtida através da discretização do domínio fluido, utilizando o método de volumes finitos e o método multigrid foi utilizado para resolver o sistema linear resultante. Como verificação, foi utilizado este modelo de turbulência para simular o escoamento em uma cavidade quadrada com tampa deslizante e o escoamento turbulento sobre um degrau. Os resultados obtidos foram confrontados com dados experimentais e demonstraram que o modelo aqui proposto se apresenta mais eficiente que o clássico modelo k − ε , no tratamento da turbulência nesses dois problemas clássicos.
Resumo:
A modelagem matemática de problemas importantes e significativos da engenharia, física e ciências sociais pode ser formulada por um conjunto misto de equações diferenciais e algébricas (EADs). Este conjunto misto de equações deve ser previamente caracterizado quanto a resolubilidade, índice diferencial e condições iniciais, para que seja possível utilizar um código computacional para resolvê-lo numericamente. Sabendo-se que o índice diferencial é o parâmetro mais importante para caracterizar um sistema de EADs, neste trabalho aplica-se a redução de índice através da teoria de grafos, proposta por Pantelides (1988). Este processo de redução de índice é realizado numericamente através do algoritmo DAGRAFO, que transforma um sistema de índice superior para um sistema reduzido de índice 0 ou 1. Após esta etapa é necessário fornecer um conjunto de condições inicias consistentes para iniciar o código numérico de integração, DASSLC. No presente trabalho discute-se três técnicas para a inicialização consistente e integração numérica de sistemas de EADs de índice superior. A primeira técnica trabalha exclusivamente com o sistema reduzido, a segunda com o sistema reduzido e as restrições adicionais que surgem após a redução do índice introduzindo variáveis de restrição, e a terceira técnica trabalha com o sistema reduzido e as derivadas das variáveis de restrição. Após vários testes, conclui-se que a primeira e terceira técnica podem gerar um conjunto solução mesmo quando recebem condições iniciais inconsistentes. Para a primeira técnica, esta característica decorre do fato que no sistema reduzido algumas restrições, muitas vezes com significado físico importante, podem ser perdidas quando as equações algébricas são diferenciadas. Trabalhando com o sistema reduzido e as derivadas das variáveis de restrição, o erro da inicialização é absorvido pelas variáveis de restrição, mascarando a precisão do código numérico. A segunda técnica adotada não tem como absorver os erros da inicialização pelas variáveis de restrição, desta forma, quando as restrições adicionais não são satisfeitas, não é gerada solução alguma. Entretanto, ao aplicar condições iniciais consistentes para todas as técnicas, conclui-se que o sistema reduzido com as derivadas das variáveis restrição é o método mais conveniente, pois apresenta melhor desempenho computacional, inclusive quando a matriz jacobiana do sistema apresenta problema de mau condicionamento, e garante que todas as restrições que compõem o sistema original estejam presentes no sistema reduzido.
Resumo:
Fenômenos naturais, tecnológicos e industriais podem, em geral, ser modelados de modo acurado através de equações diferenciais parciais, definidas sobre domínios contínuos que necessitam ser discretizados para serem resolvidos. Dependendo do esquema de discretização utilizado, pode-se gerar sistemas de equações lineares. Esses sistemas são, de modo geral, esparsos e de grande porte, onde as incógnitas podem ser da ordem de milhares, ou até mesmo de milhões. Levando em consideração essas características, o emprego de métodos iterativos é o mais apropriado para a resolução dos sistemas gerados, devido principalmente a sua potencialidade quanto à otimização de armazenamento e eficiência computacional. Uma forma de incrementar o desempenho dos métodos iterativos é empregar uma técnica multigrid. Multigrid são uma classe de métodos que resolvem eficientemente um grande conjunto de equações algébricas através da aceleração da convergência de métodos iterativos. Considerando que a resolução de sistemas de equações de problemas realísticos pode requerer grande capacidade de processamento e de armazenamento, torna-se imprescindível o uso de ambientes computacionais de alto desempenho. Uma das abordagens encontradas na literatura técnica para a resolução de sistemas de equações em paralelo é aquela que emprega métodos de decomposição de domínio (MDDs). Os MDDs são baseados no particionamento do domínio computacional em subdomínios, de modo que a solução global do problema é obtida pela combinação apropriada das soluções obtidas em cada um dos subdomínios Assim, neste trabalho são disponibilizados diferentes métodos de resolução paralela baseado em decomposição de domínio, utilizando técnicas multigrid para a aceleração da solução de sistemas de equações lineares. Para cada método, são apresentados dois estudos de caso visando a validação das implementações. Os estudos de caso abordados são o problema da difusão de calor e o modelo de hidrodinâmica do modelo UnHIDRA. Os métodos implementados mostraram-se altamente paralelizáveis, apresentando bons ganhos de desempenho. Os métodos multigrid mostraram-se eficiente na aceleração dos métodos iterativos, já que métodos que utilizaram esta técnica apresentaram desempenho superior aos métodos que não utilizaram nenhum método de aceleração.
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
In the mid-nineteenth century, french mathematicians Briot and Bouquet have proposed an intriguing graphical method for solving cubic equations "depressed" - the third degree equations that do not have the quadratic term. The proposal is simple geometric construction, though based on an ingenious algebra. We propose here the verification and testing graphical method through an instructional sequence using the software GeoGebra also present the ingenious algebraic development that resulted in this graphic method for determination of real roots of a cubic equation of the type x³ + px + q = 0 where p and q are real numbers. The method states that these solutions are summarized in the abscissas of the points of intersection of the circumference containing the origin and the center C (-q/2, 1-p/2) with the parable y = x².
Resumo:
Two hundred and six patients with severe head injury (Glasgow Coma Scale of 8 points or less after nonsurgical resuscitation on admission), managed at Intensive Care Unit-Hospital das Clínicas - Universidade Estadual de Campinas were prospectively analysed. All patients were assessed by CT scan and 72 required neurosurgical intervention. All patients were continuously monitored to evaluate intracranial pressure (ICP) levels by a subarachnoid device (11 with subarachnoid metallic bolts and 195 with subarachnoid polyvinyl catheters). The ICP levels were continuously observed in the bedside pressure monitor display and their end-hour values were recorded in a standard chart. The patients were managed according to a standard protocol guided by the ICP levels. There were no intracranial haemorrhagic complications or hematomas due the monitoring method. Sixty six patients were punctured by lateral C1-C2 technique to assess infectious complications and 2 had positive cerebrospinal fluid samples for Acinetobacter sp. The final results measured at hospital discharge showed 75 deaths (36,40%) and 131 (63,60%) survivors. ICP levels had significantly influenced the final results (p<0,001). The subarachnoid method to continuously assess the ICP levels was considered aplicable, safe, simple, low cost and useful to advise the management of the patients. The ICP record methodology was practical and useful. Despite the current technical advances the subarachnoid method was considered viable to assess the ICP levels in severe head injury.
Resumo:
The purpose of this study is to introduce a method to evaluate visual functions in infants in the first three months of life. An adaptation of the Guide for the Assessment of Visual Ability in Infants (Gagliardo, 1997) was used. The instrument was a ring with string. It was implemented a pilot study with 33 infants, selected according to the following criteria: neonates well enough to go home within two days of birth; 1 to 3 months of chronological age; monthly evaluation with no absence; subjects living in Campinas/SP metropolitan area. In the first month we observed: visual fixation (93,9%); eye contact (90,9%); horizontal tracking (72,7%); inspects surroundings (97,0%). In the third month, we observed: inspects own hands (42,4%) and increased movements of arms (36,4%). This method allowed the evaluation of visual functions in infants, according to the chronological age. Alterations in this function will facilitate immediate referral to medical services for diagnoses.
Resumo:
The ONIOM method was used to calculate the proton affinities (PA) of n-alkylamines (CnH2n+1NH2, n = 3 to 6, 8, 10, 12, 14, 16 and 18). The calculations were carried out at several levels (HF, MP2, B3LYP, QCISD(T), ...) using Pople basis sets and at the QCISD(T) level using basis sets developed by the generator coordinate method (GCM) and adapted to effective core potentials. PAs were also obtained through the GCM and high level methods, like ONIOM[QCISD(T)/6-31+G(2df,p):MP2/6-31G+G(d,p))//ONIOM[MP2/6-31+G(d,p):HF/6-31G]. The average error using the GCM, with respect to experimental data, was 3.4 kJ mol-1.
Resumo:
In this work a simple and sensitive procedure to extract organic mercury from water and sediment samples, using methylene chloride in acidic media followed by CVAFS quantification has been developed. The method was evaluated for possible interferents, using different inorganic mercury species and humic acid, no effects being observed. The detection limit for organic mercury was 160 pg and 396 pg for water and sediment samples respectively. The accuracy of the method was evaluated using a certified reference material of methylmercury (BCR-580, estuarine sediment). Recovery tests using methylmercury as surrogate spiked with 1.0 up to 30.0 ng L-1 ranged from 90 up to 109% for water samples, whereas for sediments, recoveries ranged from 57 up to 97%.
Resumo:
Alginate microparticles were prepared by an emulsion method aiming oral controlled release of antigens to fish. The effects of emulsification temperature and impeller type on particle morphology, average diameter, and size distribution were evaluated. Microparticles contaning formalin-killed Flavobacterium columnare cells (a model antigen) were prepared and characterized regarding bacterial release and particle stability when exposed to Nile tilapia (Oreochromis niloticus) typical gastrointestinal conditions. This methodology allowed the production of microparticles containing up to 14.3 g/L of bacterin, stable at a pH range from 2.0 to 9.0 for 12 h and smaller than 35 μm.
Resumo:
A method to quantify lycopene and β-carotene in freeze dried tomato pulp by high performance liquid chromatography (HLPC) was validated according to the criteria of selectivity, sensitivity, precision and accuracy, and uncertainty estimation of measurement was determined with data obtained in the validation. The validated method presented is selective in terms of analysis, and it had a good precision and accuracy. Detection limit for lycopene and β-carotene was 4.2 and 0.23 mg 100 g-1, respectively. The estimation of expanded uncertainty (K = 2) for lycopene was 104 ± 21 mg 100 g-1 and for β-carotene was 6.4 ± 1.5 mg 100 g-1.
Resumo:
A new practical experiment involving silver and gold nanoparticle syntheses was introduced in an inorganic chemistry laboratory course for undergraduate students at the Institute of Chemistry, UNICAMP. The nanoparticles were synthesized by the reduction of silver nitrate and tetrachloroauric acid with sodium borohydride and sodium citrate in an aqueous medium. Stabilities of the suspensions were tested using several different reactants including sodium chloride, polyvinylpyrrolidone, polyvinyl alcohol and cistamine. Changes in optical properties were observed by electronic spectra and also by transmission electronic microscopy, which also yielded data for estimating particle size.
Resumo:
A simple analytical method for extraction and quantification of lutein colorant added to yogurt was developed and validated. The method allowed complete extraction of carotenoids using tetrahydrofuran in vortex, followed by centrifugation, partition to diethyl ether/petroleum ether, and drying. The carotenoids dissolved in ethanol were quantified by UV-Vis spectrophotometry. This method showed linearity in the range tested (1.41-13.42 µg g-1), limits of detection and quantification of 0.42 and 1.28 µg g-1, respectively, low relative standard deviation (3.4%) and recovery ranging from 95 to 103%. The method proved reliable for quantification of lutein added to yogurt.