76 resultados para Volterra, Equações de
Resumo:
Este trabalho estima, utilizando dados trimestrais de 1999 a 2011, o impacto dinâmico de um estímulo fiscal no Brasil sobre as principais variáveis macroeconômicas Brasileiras. Na estimativa dos impactos permitiu-se que as expectativas dos agentes econômicas fossem afetadas pela existência e probabilidade de alternância de regimes (foram detectados dois regimes) na política monetária do país. Os parâmetros da regra da política monetária, nos dois regimes detectados, foram estimados através de um modelo - composto apenas pela equação da regra da política monetária - que permite uma mudança de regime Markoviana. Os parâmetros do único regime encontrado para a política fiscal foram estimados por um modelo Vetorial de Correção de Erros (Vector Error Correction Model - VEC), composto apenas pelas variáveis pertencentes à regra da política fiscal. Os parâmetros estimados, para os diversos regimes das políticas monetária e fiscal, foram utilizados como auxiliares na calibragem de um modelo de equilíbrio geral estocástico dinâmico (MEGED), com mudanças de regime, com rigidez nominal de preços e concorrência monopolística (como em Davig e Leeper (2011)). Após a calibragem do MEGED os impactos dinâmicos de um estímulo fiscal foram obtidos através de uma rotina numérica (desenvolvida por Davig e Leeper (2006)) que permite obter o equilíbrio dinâmico do modelo resolvendo um sistema de equações de diferenças de primeira ordem expectacionais dinâmicas não lineares. Obtivemos que a política fiscal foi passiva durante todo o período analisado e que a política monetária foi sempre ativa, porém sendo em determinados momentos menos ativa. Em geral, em ambas as combinações de regimes, um choque não antecipado dos gastos do governo leva ao aumento do hiato do produto, aumento dos juros reais, redução do consumo privado e (em contradição com o resultado convencional) redução da taxa de inflação.
Resumo:
O diabetes mellitus(DM) e as disfunções tireoidianas(DT) são as duas desordens endocrinológicas mais comuns na prática clínica. A DT não reconhecida pode interferir no controle metabólico e adicionar mais risco a um cenário predisponente à doença cardiovascular. O objetivo deste estudo foi avaliar a prevalência da DT em pacientes com diabetes mellitus tipo 1 e tipo 2 (DM1 e DM2) e avaliar o risco cardiovascular em pacientes com DM2 com e sem DT utilizando parâmetros clínicos e laboratoriais. Trata-se de um estudo observacional de corte transversal. Foram avaliados 304 pacientes com DM2 e 82 pacientes com DM1. Os pacientes foram submetidos a um inquérito clínico-demográfico e avaliação laboratorial para determinação do perfil lipídico, glicídico e da função tireoidiana. Os pacientes com DM2 tiveram seus escores de risco cardiovascular em 10 anos determinados pelas equações de Framingham e do UKPDS risk engine. A frequência de disfunção tireoidiana entre os 386 pacientes foi de 14,7%, sendo de 13% nos que não possuíam disfunção prévia. A disfunção mais frequente encontrada foi de hipotireoidismo subclínico, com 13% no DM1 e de 12% no DM2. A prevalência de anticorpos anti-tireoperoxidase (TPO) positivos foi de 10,8%, sendo de14,6% em pacientes com DM1.Foram diagnosticados 44 (11,2%) novos casos de disfunção tireoidiana em pacientes que negavam ou desconheciam terem DT prévia.Destes novos casos, 12,8% em DM1 e 13,1% em DM2.Dos 49 pacientes com DT prévia, 50% dos DM1e 76% dos DM2 estavam compensados. Não foi observada diferença entre as médias do escore de risco de Framingham entre os pacientes DM2 com eutireoidismo e com hipotireoidismo subclínico. Observou-se uma associação entre o hipotireoidismo subclínico e risco cardiovascular nos pacientes com DM2 demonstrado pela diferença estatisticamente significativa entre as médias do escore UKPDS para doença coronariana não-fatal e fatal, acidente vascular cerebral fatal entre os dois grupos (p=0,007; 0,005;0,027 respectivamente). As demais funções tireodianas (hipotireoidismo clínico, hipertireoidismo clínico e subclínico) encontradas não foram analisadas devido ao pequeno número de pacientes em cada grupo.Concluímos que o rastreio da doença tireoidiana entre os pacientes com diabetes mellitus deve ser realizado rotineiramente considerando-se a prevalência de novos casos de DT diagnosticados e o fato de que os pacientes com DM2 e com hipotireoidismo subclínico avaliados possuírem um risco cardiovascular maior. Todavia, concluímos que estudos prospectivos e com maior número de pacientes são necessários para o esclarecimento do impacto da doença tireoidiana no risco cardiovascular do paciente com DM.
Resumo:
Um método de Matriz Resposta (MR) é descrito para gerar soluções numéricas livres de erros de truncamento espacial para problemas multigrupo de transporte de nêutrons com fonte fixa e em geometria unidimensional na formulação de ordenadas discretas (SN). Portanto, o método multigrupo MR com esquema iterativo de inversão nodal parcial (NBI) converge valores numéricos para os fluxos angulares nas fronteiras das regiões que coincidem com os valores da solução analítica das equações multigrupo SN, afora os erros de arredondamento da aritmética finita computacional. É também desenvolvido um esquema numérico de reconstrução espacial, que fornece a saída para os fluxos escalares de nêutrons em cada grupo de energia em um intervalo qualquer do domínio definido pelo usuário, com um passo de avanço também escolhido pelo usuário. Resultados numéricos são apresentados para ilustrar a precisão do presente método em cálculos de malha grossa.
Resumo:
O Leito Móvel Simulado (LMS) é um processo de separação de compostos por adsorção muito eficiente, por trabalhar em um regime contínuo e também possuir fluxo contracorrente da fase sólida. Dentre as diversas aplicações, este processo tem se destacado na resolução de petroquímicos e principalmente na atualidade na separação de misturas racêmicas que são separações de um grau elevado de dificuldade. Neste trabalho foram propostas duas novas abordagens na modelagem do LMS, a abordagem Stepwise e a abordagem Front Velocity. Na modelagem Stepwise as colunas cromatográficas do LMS foram modeladas com uma abordagem discreta, onde cada uma delas teve seu domínio dividido em N células de mistura interligadas em série, e as concentrações dos compostos nas fases líquida e sólida foram simuladas usando duas cinéticas de transferência de massa distintas. Essa abordagem pressupõe que as interações decorrentes da transferência de massa entre as moléculas do composto nas suas fases líquida e sólida ocorram somente na superfície, de forma que com essa suposição pode-se admitir que o volume ocupado por cada molécula nas fases sólida e líquida é o mesmo, o que implica que o fator de residência pode ser considerado igual a constante de equilíbrio. Para descrever a transferência de massa que ocorre no processo cromatográfico a abordagem Front Velocity estabelece que a convecção é a fase dominante no transporte de soluto ao longo da coluna cromatográfica. O Front Velocity é um modelo discreto (etapas) em que a vazão determina o avanço da fase líquida ao longo da coluna. As etapas são: avanço da fase líquida e posterior transporte de massa entre as fases líquida e sólida, este último no mesmo intervalo de tempo. Desta forma, o fluxo volumétrico experimental é utilizado para a discretização dos volumes de controle que se deslocam ao longo da coluna porosa com a mesma velocidade da fase líquida. A transferência de massa foi representada por dois mecanismos cinéticos distintos, sem (tipo linear) e com capacidade máxima de adsorção (tipo Langmuir). Ambas as abordagens propostas foram estudadas e avaliadas mediante a comparação com dados experimentais de separação em LMS do anestésico cetamina e, posteriormente, com o fármaco Verapamil. Também foram comparados com as simulações do modelo de equilíbrio dispersivo para o caso da Cetamina, usado por Santos (2004), e para o caso do Verapamil (Perna 2013). Na etapa de caracterização da coluna cromatográfica as novas abordagens foram associadas à ferramenta inversa R2W de forma a determinar os parâmetros globais de transferência de massa apenas usando os tempos experimentais de residência de cada enantiômero na coluna de cromatografia líquida de alta eficiência (CLAE). Na segunda etapa os modelos cinéticos desenvolvidos nas abordagens foram aplicados nas colunas do LMS com os valores determinados na caracterização da coluna cromatográfica, para a simulação do processo de separação contínua. Os resultados das simulações mostram boa concordância entre as duas abordagens propostas e os experimentos de pulso para a caracterização da coluna na separação enantiomérica da cetamina ao longo do tempo. As simulações da separação em LMS, tanto do Verapamil quando da Cetamina apresentam uma discrepância com os dados experimentais nos primeiros ciclos, entretanto após esses ciclos iniciais a correlação entre os dados experimentais e as simulações. Para o caso da separação da cetamina (Santos, 2004), a qual a concentração da alimentação era relativamente baixa, os modelos foram capazes de predizer o processo de separação com as cinéticas Linear e Langmuir. No caso da separação do Verapamil (Perna, 2013), onde a concentração da alimentação é relativamente alta, somente a cinética de Langmuir representou o processo, devido a cinética Linear não representar a saturação das colunas cromatográficas. De acordo como o estudo conduzido ambas as abordagens propostas mostraram-se ferramentas com potencial na predição do comportamento cromatográfico de uma amostra em um experimento de pulso, assim como na simulação da separação de um composto no LMS, apesar das pequenas discrepâncias apresentadas nos primeiros ciclos de trabalho do LMS. Além disso, podem ser facilmente implementadas e aplicadas na análise do processo, pois requer um baixo número de parâmetros e são constituídas de equações diferenciais ordinárias.
Resumo:
A descoberta de reservatórios de petróleo na camada do pré-sal abriu novas perspectivas para a economia brasileira. A grandes profundidades, com elevado teor de CO2 e submetidos a altas pressões e temperaturas, a exploração de petróleo das camadas de pré-sal constitui um considerável desafio tecnológico. Neste contexto, o conhecimento dos coeficientes de compressibilidade são fundamentais para o estudo do comportamento termodinâmico e escoamento dos fluidos destes campos de produção. Com este objetivo, foram determinadas experimentalmente nesta dissertação a massa específica e a velocidade do som de sistemas envolvendo quatro hidrocarbonetos puros: n-decano, n-hexadecano, decalina e tetralina, assim como para sistemas multicompostos envolvendo estes hidrocarbonetos e para uma amostra de condensado de petróleo. Os resultados obtidos permitiram o cálculo dos coeficientes de compressibilidade isentrópica, isotérmica e isentálpica. É apresentada uma avaliação sobre a capacidade de se correlacionar dados experimentais de velocidade do som aos dados calculados pelas equações de estado de Peng-Robinson e Lee-Kesler com regras de mistura: (i) Spencer e Danner e (ii) Lee-Kesler
Resumo:
Um grande desafio da atualidade é a preservação dos recursos hídricos, bem como o correto manejo dos mesmos, frente à expansão das cidades e às atividades humanas. A qualidade de um corpo hídrico é usualmente avaliada através da análise de parâmetros biológicos, físicos e químicos. O comportamento de tais parâmetros pode convenientemente ser simulado através de modelos matemáticos e computacionais, que surgem assim como uma ferramenta bastante útil, por sua capacidade de geração de cenários que possam embasar, por exemplo, tomadas de decisão. Nesta tese são discutidas técnicas de estimação da localização e intensidade de uma fonte de contaminante conservativo, hipoteticamente lançado na região predominantemente fluvial de um estuário. O lançamento aqui considerado se dá de forma pontual e contínua e a região enfocada compreendeu o estuário do Rio Macaé, localizado na costa norte do Rio de Janeiro. O trabalho compreende a solução de um problema direto, que consiste no transporte bidimensional (integrado na vertical) desse contaminante hipotético, bem como a aplicação de técnicas de problemas inversos. Para a solução do transporte do contaminante, aqui modelada pela versão 2D horizontal da equação de advecção-difusão, foram utilizados como métodos de discretização o Método de Elementos Finitos e o Método de Diferenças Finitas. Para o problema hidrodinâmico foram utilizados dados de uma solução já desenvolvida para estuário do Rio Macaé. Analisada a malha de acordo com o método de discretização, foram definidas a geometria do estuário e os parâmetros hidrodinâmicos e de transporte. Para a estimação dos parâmetros propostos foi utilizada a técnica de problemas inversos, com o uso dos métodos Luus-Jaakola, Algoritmo de Colisão de Partículas e Otimização por Colônia de Formigas para a estimação da localização e do método Seção Áurea para a estimação do parâmetro de intensidade da fonte. Para a definição de uma fonte, com o objetivo de propor um cenário experimental idealizado e de coleta de dados de amostragem, foi realizada a análise de sensibilidade quanto aos parâmetros a serem estimados. Como os dados de amostragem de concentração foram sintéticos, o problema inverso foi resolvido utilizando-os com e sem ruído, esse introduzido de forma artificial e aleatória. Sem o uso de ruído, os três métodos mostraram-se igualmente eficientes, com uma estimação precisa em 95% das execuções. Já com o uso de dados de amostragem com ruídos de 5%, o método Luus-Jaakola mostrou-se mais eficiente em esforço e custo computacional, embora todos tenham estimado precisamente a fonte em 80% das execuções. Considerando os resultados alcançados neste trabalho tem-se que é possível estimar uma fonte de constituintes, quanto à sua localização e intensidade, através da técnica de problemas inversos. Além disso, os métodos aplicados mostraram-se eficientes na estimação de tais parâmetros, com estimações precisas para a maioria de suas execuções. Sendo assim, o estudo do comportamento de contaminantes, e principalmente da identificação de fontes externas, torna-se uma importante ferramenta para a gestão dos recursos hídricos, possibilitando, inclusive, a identificação de possíveis responsáveis por passivos ambientais.
Resumo:
A Amazônia exibe uma variedade de cenários que se complementam. Parte desse ecossistema sofre anualmente severas alterações em seu ciclo hidrológico, fazendo com que vastos trechos de floresta sejam inundados. Esse fenômeno, entretanto, é extremamente importante para a manutenção de ciclos naturais. Neste contexto, compreender a dinâmica das áreas alagáveis amazônicas é importante para antecipar o efeito de ações não sustentáveis. Sob esta motivação, este trabalho estuda um modelo de escoamento em áreas alagáveis amazônicas, baseado nas equações de Navier-Stokes, além de ferramentas que possam ser aplicadas ao modelo, favorecendo uma nova abordagem do problema. Para a discretização das equações é utilizado o Método dos Volumes Finitos, sendo o Método do Gradiente Conjugado a técnica escolhida para resolver os sistemas lineares associados. Como técnica de resolução numérica das equações, empregou-se o Método Marker and Cell, procedimento explícito para solução das equações de Navier-Stokes. Por fim, as técnicas são aplicadas a simulações preliminares utilizando a estrutura de dados Autonomous Leaves Graph, que tem recursos adaptativos para manipulação da malha que representa o domínio do problema
Resumo:
O primeiro objetivo da Tese consistiu na identificação e caracterização dos instrumentos de aferição epidemiológicos que vêm sendo propostos para a abordagem de IA domiciliar, bem como na síntese de suas propriedades psicométricas. Para tal, realizou-se busca sistemática em três bases de dados eletrônicas: MEDLINE, LILACS e SciELO. Não houve delimitação do período de publicação. Os resultados são apresentados no artigo intitulado Household food insecurity: a systematic review of the measuring instruments used in epidemiological studies. Foram identificados 24 instrumentos, todos breves e de fácil aplicação. A maioria foi desenvolvida nos Estados Unidos. O instrumento HFSSM apresentou o maior número de estudos de utilização e psicométricos, podendo ser recomendado sem hesitação. O segundo e principal objetivo desta Tese foi avaliar se a ocorrência de violência psicológica e física entre parceiros íntimos pode ser considerada um fator de risco para a ocorrência de Insegurança Alimentar (IA) domiciliar. As informações que subjazem a pesquisa originaram-se de um inquérito domiciliar realizado no Distrito de Campos Elíseos, Município de Duque de Caxias, entre abril a novembro de 2010. A população de estudo foi selecionada por meio de amostragem por conglomerados em três estágios (setor censitário, domicílio, indivíduo) com técnicas de amostragem inversa para a seleção dos domicílios. A amostra do estudo incluiu 849 mulheres que no período da entrevista relataram possuir algum relacionamento amoroso nos 12 meses anteriores. As informações foram obtidas por meio de entrevista utilizando-se um questionário estruturado, contendo instrumentos previamente validados, como a Revised Conflict Tatics Scales (CTS2) para a mensuração das violências e a Escala Brasileira de Insegurança Alimentar (EBIA) para a IA domiciliar. Utilizou-se a análise de caminhos (Path Analysis) na análise de dados o que permitiu explorar as relações entre as violências, entre estas e o Transtorno Mental Comum (TMC), este último e a IA, bem como as relações mais distais do modelo teórico. Os resultados são apresentados no artigo intitulado Violência entre parceiros íntimos, transtornos mentais comuns e insegurança alimentar: modelagem de equações estruturais. A hipótese central deste estudo foi corroborada, na medida em que tanto a violência psicológica, como a violência física se mostraram importantes fatores de risco para a IA, via a ocorrência de TMC. Contrariamente ao esperado, notou-se um maior efeito da violência psicológica do que da violência física na ocorrência do desfecho. Espera-se que a divulgação dos resultados desta Tese auxilie os profissionais e gestores na área de segurança alimentar e nutricional, bem como pesquisadores da área na tomada de decisões em relação ao instrumento de aferição a ser utilizado para a caracterização das situações e ampliem o olhar sobre o problema, incorporando outros fatores de risco, tais como as violências entre parceiros íntimos, aqueles estritamente econômicos, habitualmente considerados no debate sobre os determinantes e estratégias de enfrentamento da IA.
Resumo:
A engenharia geotécnica é uma das grandes áreas da engenharia civil que estuda a interação entre as construções realizadas pelo homem ou de fenômenos naturais com o ambiente geológico, que na grande maioria das vezes trata-se de solos parcialmente saturados. Neste sentido, o desempenho de obras como estabilização, contenção de barragens, muros de contenção, fundações e estradas estão condicionados a uma correta predição do fluxo de água no interior dos solos. Porém, como a área das regiões a serem estudas com relação à predição do fluxo de água são comumente da ordem de quilômetros quadrados, as soluções dos modelos matemáticos exigem malhas computacionais de grandes proporções, ocasionando sérias limitações associadas aos requisitos de memória computacional e tempo de processamento. A fim de contornar estas limitações, métodos numéricos eficientes devem ser empregados na solução do problema em análise. Portanto, métodos iterativos para solução de sistemas não lineares e lineares esparsos de grande porte devem ser utilizados neste tipo de aplicação. Em suma, visto a relevância do tema, esta pesquisa aproximou uma solução para a equação diferencial parcial de Richards pelo método dos volumes finitos em duas dimensões, empregando o método de Picard e Newton com maior eficiência computacional. Para tanto, foram utilizadas técnicas iterativas de resolução de sistemas lineares baseados no espaço de Krylov com matrizes pré-condicionadoras com a biblioteca numérica Portable, Extensible Toolkit for Scientific Computation (PETSc). Os resultados indicam que quando se resolve a equação de Richards considerando-se o método de PICARD-KRYLOV, não importando o modelo de avaliação do solo, a melhor combinação para resolução dos sistemas lineares é o método dos gradientes biconjugados estabilizado mais o pré-condicionador SOR. Por outro lado, quando se utiliza as equações de van Genuchten deve ser optar pela combinação do método dos gradientes conjugados em conjunto com pré-condicionador SOR. Quando se adota o método de NEWTON-KRYLOV, o método gradientes biconjugados estabilizado é o mais eficiente na resolução do sistema linear do passo de Newton, com relação ao pré-condicionador deve-se dar preferência ao bloco Jacobi. Por fim, há evidências que apontam que o método PICARD-KRYLOV pode ser mais vantajoso que o método de NEWTON-KRYLOV, quando empregados na resolução da equação diferencial parcial de Richards.
Resumo:
Em uma grande gama de problemas físicos, governados por equações diferenciais, muitas vezes é de interesse obter-se soluções para o regime transiente e, portanto, deve-se empregar técnicas de integração temporal. Uma primeira possibilidade seria a de aplicar-se métodos explícitos, devido à sua simplicidade e eficiência computacional. Entretanto, esses métodos frequentemente são somente condicionalmente estáveis e estão sujeitos a severas restrições na escolha do passo no tempo. Para problemas advectivos, governados por equações hiperbólicas, esta restrição é conhecida como a condição de Courant-Friedrichs-Lewy (CFL). Quando temse a necessidade de obter soluções numéricas para grandes períodos de tempo, ou quando o custo computacional a cada passo é elevado, esta condição torna-se um empecilho. A fim de contornar esta restrição, métodos implícitos, que são geralmente incondicionalmente estáveis, são utilizados. Neste trabalho, foram aplicadas algumas formulações implícitas para a integração temporal no método Smoothed Particle Hydrodynamics (SPH) de modo a possibilitar o uso de maiores incrementos de tempo e uma forte estabilidade no processo de marcha temporal. Devido ao alto custo computacional exigido pela busca das partículas a cada passo no tempo, esta implementação só será viável se forem aplicados algoritmos eficientes para o tipo de estrutura matricial considerada, tais como os métodos do subespaço de Krylov. Portanto, fez-se um estudo para a escolha apropriada dos métodos que mais se adequavam a este problema, sendo os escolhidos os métodos Bi-Conjugate Gradient (BiCG), o Bi-Conjugate Gradient Stabilized (BiCGSTAB) e o Quasi-Minimal Residual (QMR). Alguns problemas testes foram utilizados a fim de validar as soluções numéricas obtidas com a versão implícita do método SPH.
Resumo:
Neste trabalho são utilizados a técnica baseada na propagação de ondas acústicas e o método de otimização estocástica Luus-Jaakola (LJ) para solucionar o problema inverso relacionado à identificação de danos em barras. São apresentados o algoritmo algébrico sequencial (AAS) e o algoritmo algébrico sequencial aperfeiçoado (AASA) que modelam o problema direto de propagação de ondas acústicas em uma barra. O AASA consiste nas modificações introduzidas no AAS. O uso do AASA resolve com vantagens o problema de identificação de danos com variações abruptas de impedância. Neste trabalho são obtidos, usando-se o AAS-LJ e o AASA-LJ, os resultados de identificação de cinco cenários de danos. Três deles com perfil suave de impedância acústica generalizada e os outros dois abruptos. Além disso, com o objetivo de simular sinais reais de um experimento, foram introduzidos variados níveis de ruído. Os resultados alcançados mostram que o uso do AASA-LJ na resolução de problemas de identificação de danos em barras é bastante promissor, superando o AAS-LJ para perfis abruptos de impedância.
Resumo:
Copolímeros à base de estireno e anidrido maleico (SMA) são materiais sintéticos comercialmente disponíveis, obtidos pela reação dos dois monômeros citados em diferentes proporções, resultando em materiais versáteis, e disponíveis em diferentes graus de massas e porcentagens molares de anidrido maleico. São considerados polímeros funcionais devido à reatividade do grupamento anidrido maleico presente na cadeia polimérica. Por este motivo, esses materiais possuem vasta gama de aplicações, e elevada importância em diversas áreas, principalmente por terem baixa toxicidade, boa resistência térmica e boa estabilidade dimensional. Dessa forma, para melhor aplicação desses copolímeros, é muito importante o conhecimento dos parâmetros relativos ao seu comportamento em solução. A viscosimetria, em especial, é um método simples, útil e apropriado para fornecer essas informações. Os parâmetros viscosimétricos podem ser matematicamente calculados por extrapolação gráfica, entretanto a geração dos dados experimentais é mais demorada. Em contrapartida, é possível que a determinação experimental seja feita de forma mais rápida, por um único ponto, procedimento esse que desperta tanto o interesse acadêmico quanto o industrial. Neste trabalho, foram empregados os dois métodos de cálculo, utilizando solventes puros, misturas de solventes e três amostras de copolímeros à base de SMA. As determinações foram conduzidas a 40C. Os copolímeros utilizados possuiam teores de anidrido maleico de 50%, 45% e 40%, sendo os dois últimos esterificados com butil-metil-éster e sec-butil-metil-éster, respectivamente. Os solventes utilizados foram: N-metil-pirrolidona (NMP), tetrahidrofurano (THF) e suas respectivas misturas 1:1 com metil-etil-cetona (MEK), ou seja, (NMP:MEK) e THF:MEK, sendo a MEK um não solvente para o copolímero não esterificado. As equações utilizadas para extrapolação gráfica foram as de Huggins, Kraemer e Schulz-Blaschke. As equações empregadas em um único ponto foram as de Solomon-Ciuta, Deb-Chanterjee e novamente Schulz-Blaschke. Os resultados obtidos foram comparados e avaliou-se a possibilidade da utilização do método mais rápido, por um único ponto, para os sistemas estudados através dos desvios percentuais tendo como padrão os resultados da equação de Huggins. A equação de Deb-Chanterjee foi a mais adequada aos sistemas em NMP, que foi também o melhor solvente para as amostras. Os resultados obtidos na mistura NMP:MEK sugeriram que a viscosimetria pode ter sido um método sensível às pequenas diferenças estruturais entre os grupos pendentes nas amostras esterificadas. Paralelamente, realizou-se análises de espectroscopia na região do infravermelho (FTIR), análise termogravimétrica (TGA) e ensaios dinâmico-mecânicos (DMA) para a caracterização estrutural e térmica das amostras. Somente os resultados obtidos a partir de DMA indicaram diferenças entre as amostras esterificadas
Resumo:
É conhecido que derivações microscópicas obtidas através de métodos de teoria quântica de campos (TQC) podem conduzir a complicadas equações de movimento (EdM) que possuem um termo dissipativo com memória e um termo de ruído colorido. Um caso particularmente interessante é o modelo que escreve a interação entre um sistema e um banho térmico a temperatura T. Motivado por isso, usamos uma prescrição que nos permite reescrever EdMs não-markovianas semelhantes as obtidas em TQC em termos de um sistema de equações locais, para então confrontarmos a solução desse sistema com a solução aproximada usada correntemente na literatura, a chamada aproximação markoviana. A pergunta chave a qual se pretende responder aqui é: dado um conjunto de parâmetros que descrevem o modelo, a aproximação markoviana é suficientemente boa para descrever a dinâmica do sistema se comparada a dinâmica obtida atravéS da EdM não-markoviana? Além disso, consideramos uma versão linear da ELG de forma que pudéssemos determinar o nível de confiança da nossa metodologia numérica, procedimento este realizado comparando-se a solução analítica com a solução numérica. Como exemplo de aplicação prática do tema discutido aqui, comparamos a evolução não-markoviana do inflaton com a evolução markoviana do mesmo num modelo de universo primordial denominado inflação não-isentrópica (warm inflation).
Resumo:
Este trabalho de pesquisa tem por objetivo apresentar e investigar a viabilidade de um método numérico que contempla o paralelismo no tempo. Este método numérico está associado a problemas de condição inicial e de contorno para equações diferenciais parciais (evolutivas). Diferentemente do método proposto neste trabalho, a maioria dos métodos numéricos associados a equações diferencias parciais evolutivas e tradicionalmente encontrados, contemplam apenas o paralelismo no espaço. Daí, a motivação em realizar o presente trabalho de pesquisa, buscando não somente um método com paralelismo no tempo mas, sobretudo, um método viável do ponto de vista computacional. Para isso, a implementação do esquema numérico proposto está por conta de um algoritmo paralelo escrito na linguagem C e que utiliza a biblioteca MPI. A análise dos resultados obtidos com os testes de desempenho revelam um método numérico escalável e que exige pouco nível de comunicação entre processadores.
Resumo:
O processo de recuperação secundária de petróleo é comumente realizado com a injeção de água ou gás no reservatório a fim de manter a pressão necessária para sua extração. Para que o investimento seja viável, os gastos com a extração precisam ser menores do que o retorno financeiro obtido com a produção de petróleo. Objetivando-se estudar possíveis cenários para o processo de exploração, costuma-se utilizar simulações dos processos de extração. As equações que modelam esse processo de recuperação são de caráter hiperbólico e não lineares, as quais podem ser interpretadas como Leis de Conservação, cujas soluções são complexas por suas naturezas descontínuas. Essas descontinuidades ou saltos são conhecidas como ondas de choque. Neste trabalho foi abordada uma análise matemática para os fenômenos oriundos de leis de conservação, para em seguida utilizá-la no entendimento do referido problema. Foram estudadas soluções fracas que, fisicamente, podem ser interpretadas como ondas de choque ou rarefação, então, para que fossem distinguidas as fisicamente admissíveis, foi considerado o princípio de entropia, nas suas diversas formas. As simulações foram realizadas nos âmbitos dos escoamentos bifásicos e trifásicos, em que os fluidos são imiscíveis e os efeitos gravitacionais e difusivos, devido à pressão capilar, foram desprezados. Inicialmente, foi feito um estudo comparativo de resoluções numéricas na captura de ondas de choque em escoamento bifásico água-óleo. Neste estudo destacam-se o método Composto LWLF-k, o esquema NonStandard e a introdução da nova função de renormalização para o esquema NonStandard, onde obteve resultados satisfatórios, principalmente em regiões onde a viscosidade do óleo é muito maior do que a viscosidade da água. No escoamento bidimensional, um novo método é proposto, partindo de uma generalização do esquema NonStandard unidimensional. Por fim, é feita uma adaptação dos métodos LWLF-4 e NonStandard para a simulação em escoamentos trifásicos em domínios unidimensional. O esquema NonStandard foi considerado mais eficiente nos problemas abordados, uma vez que sua versão bidimensional mostrou-se satisfatória na captura de ondas de choque em escoamentos bifásicos em meios porosos.