56 resultados para Métodos matemáticos


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Um método espectronodal é desenvolvido para problemas de transporte de partículas neutras de fonte fixa, multigrupo de energia em geometria cartesiana na formulação de ordenadas discretas (SN). Para geometria unidimensional o método espectronodal multigrupo denomina-se método spectral Greens function (SGF) com o esquema de inversão nodal (NBI) que converge solução numérica para problemas SN multigrupo em geometria unidimensional, que são completamente livre de erros de truncamento espacial para ordem L de anisotropia de espalhamento desde que L < N. Para geometria X; Y o método espectronodal multigrupo baseia-se em integrações transversais das equações SN no interior dos nodos de discretização espacial, separadamente nas direções coordenadas x e y. Já que os termos de fuga transversal são aproximados por constantes, o método nodal resultante denomina-se SGF-constant nodal (SGF-CN), que é aplicado a problemas SN multigrupo de fonte fixa em geometria X; Y com espalhamento isotrópico. Resultados numéricos são apresentados para ilustrar a eficiência dos códigos SGF e SGF-CN e a precisão das soluções numéricas convergidas em cálculos de malha grossa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Desde a década de 1990, os esforços internacionais para a obtenção de genomas completos levaram à determinação do genoma de inúmeros organismos. Isto, aliado ao grande avanço da computação, tem permitido o uso de abordagens inovadoras no estudo da estrutura, organização e evolução dos genomas e na predição e classificação funcional de genes. Entre os métodos mais comumente empregados nestas análises está a busca por similaridades entre sequências biológicas. Análises comparativas entre genomas completamente sequenciados indicam que cada grupo taxonômico estudado até o momento contém de 10 a 20% de genes sem homólogos reconhecíveis em outras espécies. Acredita-se que estes genes taxonomicamente restritos (TRGs) tenham um papel importante na adaptação a nichos ecológicos particulares, podendo estar envolvidos em importantes processos evolutivos. Entretanto, seu reconhecimento não é simples, sendo necessário distingui-los de ORFs não-funcionais espúrias e/ou artefatos derivados dos processos de anotação gênica. Além disso, genes espécie- ou gêneroespecíficos podem representar uma oportunidade para o desenvolvimento de métodos de identificação e/ou tipagem, tarefa relativamente complicada no caso dos procariotos, onde o método padrão-ouro na atualidade envolve a análise de um grupo de vários genes (MultiLocus Sequence Typing MLST). Neste trabalho utilizamos dados produzidos através de análises comparativas de genomas e de sequências para identificar e caracterizar genes espécie- e gênero-específicos, os quais possam auxiliar no desenvolvimento de novos métodos para identificação e/ou tipagem, além de poderem lançar luz em importantes processos evolutivos (tais como a perda e ou origem de genes em linhagens particulares, bem como a expansão de famílias de genes em linhagens específicas) nos organismos estudados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Atualmente, existem modelos matemáticos capazes de preverem acuradamente as relações entre propriedades de estado; e esta tarefa é extremamente importante no contexto da Engenharia Química, uma vez que estes modelos podem ser empregados para avaliar a performance de processos químicos. Ademais, eles são de fundamental importância para a simulação de reservatórios de petróleo e processos de separação. Estes modelos são conhecidos como equações de estado, e podem ser usados em problemas de equilíbrios de fases, principalmente em equilíbrios líquido-vapor. Recentemente, um teorema matemático foi formulado (Teorema de Redução), fornecendo as condições para a redução de dimensionalidade de problemas de equilíbrios de fases para misturas multicomponentes descritas por equações de estado cúbicas e regras de mistura e combinação clássicas. Este teorema mostra como para uma classe bem definidade de modelos termodinâmicos (equações de estado cúbicas e regras de mistura clássicas), pode-se reduzir a dimensão de vários problemas de equilíbrios de fases. Este método é muito vantajoso para misturas com muitos componentes, promovendo uma redução significativa no tempo de computação e produzindo resultados acurados. Neste trabalho, apresentamos alguns experimentos numéricos com misturas-testes usando a técnica de redução para obter pressões de ponto de orvalho sob especificação de temperaturas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os diamantes são minerais raros e de alto valor econômico. Estes minerais se formam em condições mantélicas, numa profundidade aproximada de 150 a 200 km e ascendem à superfície englobada em magmas alcalinos e carbonatíticos, nos kimberlitos e lamproitos (depósitos primários). No presente trabalho objetivou-se o estudo da geometria do Kimberlito Régis, o qual pertence à província alcalina do Brasil Meridional, localizado no estado de Minas Gerais, na cidade de Carmo do Paranaíba. Para este estudo foi realizada uma inversão gravimétrica 3D e uma modelagem utilizando dados de gravimetria e os resultados dos estudos de magnetometria (Menezes e La Terra, 2011) e CSAMT (La Terra e Menezes, 2012). As anomalias Bouguer e magnética foram então modeladas a partir de um resultado CSAMT, apresentando como resultado um conduto vulcânico com cerca de 2800 metros de profundidade e 200 metros de largura. Já o resultado da inversão mapeou um corpo com forma de cone invertido, apresentando contrastes de densidade negativos. A metodologia de integração de métodos geofísicos mostrou-se eficiente para estudos exploratórios de kimberlitos, apresentando rapidez e baixo custo quando comparados com os métodos tradicionais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esse trabalho compreende dois diferentes estudos de caso: o primeiro foi a respeito de um medicamento para o qual foi desenvolvida uma metodologia para determinar norfloxacino (NOR) por espectrofluorimetria molecular e validação por HPLC. Primeiramente foi desenvolvida uma metodologia por espectrofluorimetria onde foram feitos alguns testes preliminares a fim de estabelecer qual valor de pH iria fornecer a maior intensidade de emissão. Após fixar o pH foi feita a determinação de NOR em padrões aquosos e soluções do medicamento usando calibração univariada. A faixa de concentração trabalhada foi de 0500 μg.L-1. O limite de detecção para o medicamento foi de 6,9 μg.L-1 enquanto que o de quantificação foi de 24,6 μg.L-1. Além dessas, outras figuras de mérito também foram estimadas para desenvolvimento da metodologia e obtiveram resultados muito satisfatórios, como por exemplo, os testes de recuperação no qual a recuperação do analito foi de 99.5 a 103.8%. Para identificação e quantificação do NOR da urina foi necessário diluir a amostra de urina (estudada em dois diferentes níveis de diluição: 500 e 1000 x) e também uso do método da adição de padrão (na mesma faixa de concentração usada para medicamento). Após a aquisição do espectro, todos foram usados para construção do tensor que seria usado no PARAFAC. Foi possível estimar as figuras de mérito como limite de detecção de 11.4 μg.L-1 and 8.4 μg.L-1 (diluição de 500 e 1000 x respectivamente) e limite de quantificação de 34 μg.L-1 e 25.6 μg.L-1 (diluição de 500 x e 1000 x respectivamente). O segundo estudo de caso foi na área alimentícia no qual se usou espectroscopia NIR e FT MIR acopladas a quimiometria para discriminar óleo de soja transgênica e não transgênica. Os espectros dos óleos não mostraram diferença significativa em termos visuais, sendo necessário usar ferramentas quimiométricas capazes de fazer essa distinção. Tanto para espectroscopia NIR quanto FT MIR foi feito o PCA a fim de identificar amostras discrepantes e que influenciariam o modelo de forma negativa. Após efetuar o PCA, foram usadas três diferentes técnicas para discriminar os óleos: SIMCA, SVM-DA e PLS-DA, sendo que para cada técnica foram usados também diferentes pré processamento. No NIR, apenas para um pré processamento se obteve resultados satisfatórios nas três técnicas, enquanto que para FT-MIR ao se usar PLS-DA se obteve 100% de acerto na classificação para todos os pré processamentos

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho aplicamos métodos espectrais para a determinação da configuração inicial de três espaços-tempos contendo buracos negros. Para isto apresentamos primeiro a foliação do espaço-tempo em hipersuperfícies tridimensionais espaciais parametrizadas pela função temporal t. Este processo é chamado de decomposição 3+1 [2] [5]. O resultado deste processo são dois conjuntos de equações classificadas em equações de vínculo e evolução [4]. As equações de vínculo podem ser divididas em vínculos Hamiltoniano e dos momentos. Para a obtenção dos dados iniciais dos problemas estudados aqui, apenas a equação de vínculo Hamiltoniano será resolvida numericamente, pois as equações de vínculo dos momentos possuem solução analítica nestes casos. Uma pequena descrição dos métodos espectrais é apresentada, destacando-se os método de Galerkin, método pseudoespectral ou de colocação e método de Tau, que são empregados na resolução das equações de vínculo Hamiltoniano dos problemas estudados. Verificamos que os resultados obtidos neste trabalho superam aqueles produzidos por Kidder e Finn [15], devido a uma escolha diferente das funções de base, que aqui satisfazem uma das condições de contorno.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os antipsicóticos são drogas utilizadas no tratamento de muitos transtornos psiquiátricos, sendo classificados em dois grupos: típicos e atípicos. Os típicos formam o grupo de drogas que bloqueiam especialmente os receptores de dopamina e, por isto, causam efeitos colaterais característicos, que se manifestam através de sintomas extrapiramidais e podem terminar em discinesia tardia. Os atípicos apresentam eficácia antipsicótica similar à dos antipsicóticos típicos, mas produzem menos efeitos colaterais extrapiramidais e não causam discinesia tardia. Os antipsicóticos se ligam às proteínas plasmáticas, principalmente a albumina, a qual representa cerca de 60% do total das proteínas no soro humano. Neste trabalho estudamos os processos de interação de duas drogas antipsicóticas atípicas, risperidona e sulpirida, com as albuminas séricas humana (HSA) e bovina (BSA), através da técnica de supressão da fluorescência intrínseca do triptofano. A partir dos espectros de fluorescência, a análise dos dados foi feita obtendo-se os gráficos e as constantes de Stern-Volmer. A análise da supressão da fluorescência foi feita a partir da média aritmética dos dados oriundos dos experimentos realizados em cada condição adotada. Como a molécula da sulpirida é fluorescente desenvolvemos uma modelagem matemática do processo de interação, que nos permitiu então obter os dados referentes à supressão da fluorescência da proteína. Os resultados mostraram que a risperidona e a sulpirida suprimem a fluorescência de ambas albuminas por um processo de quenching estático, formando complexos droga-albumina. A risperidona tem uma afinidade com a HSA cerca de 6,5 vezes maior do que a sulpirida, a 37 oC. As constantes de associação calculadas para a interação risperidona-HSA, através da Teoria de Stern-Volmer, foram 1,43 ( 0,05) x 105 M-1, a 37 C, e 2,56 ( 0,09) x 105 M-1, a 25 C1; e para a sulpirida, 2,20 ( 0,08) x 104 M-1, a 37 C, e 5,46 ( 0,20) x 104 M-1, a 25 C. Como a taxa de quenching da BSA foi maior do que a da HSA, sugerimos que o sítio primário para a risperidona nas albuminas esteja localizado mais próximo ao domínio do triptofano 134 da BSA do que do domínio do triptofano 212 da HSA. O mesmo sugerimos com relação ao sítio para a sulpirida a 37 C.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Devido a sua grande extensão latitudinal, a costa brasileira é influenciada por diferentes regimes climáticos e oceanográficos. Adicionalmente, a distribuição da população brasileira é caracterizada por uma alta concentração nas capitais litorâneas. Todos esses fatores levam à construção de inúmeras estruturas de engenharia que podem de alguma forma impactar o transporte de sedimento e consequentemente o balanço sedimentar de algumas praias. Uma das formas mais eficientes de recuperar esse balanço sedimentar é a alimentação artificial de praias, com sedimentos provenientes da plataforma continental com características semelhantes. Os métodos geofísicos acústicos permitem mapear de forma eficiente o fundo e o subfundo marinho para a busca de áreas fontes para a lavra de forma eficiente. O objetivo deste estudo é a identificação de padrões geoacústicos a partir de analises quantitativas e qualitativas, para a caracterização de áreas fontes de areias siliciclásticas compatíveis com sedimentos de praias em erosão na cidade do Rio de Janeiro. O mapeamento foi realizado na plataforma continental interna do Rio de Janeiro, em área adjacente à praia de Itaipuaçu (Maricá, RJ). As análises evidenciaram depósitos, localizados entre 19 e 30 metros, de areias com granulometria, textura e selecionamento em condições ideias para a recomposição de praias do Rio de Janeiro.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cirurgias ortognáticas bimaxilares representam um desafio para os cirurgiões, especialmente para reproduzir o plano de tratamento na sala operatória. O uso de guias cirúrgicos permite uma melhor reprodução do planejamento, mas, para isto, uma técnica precisa de cirurgia de modelos é essencial. O objetivo deste estudo é comparar a precisão do reposicionamento mandibular obtido com dois diferentes métodos de cirurgia de modelos utilizados para o planejamento de cirurgias bimaxilares com a seqüência cirúrgica invertida. Neste estudo, um crânio de resina foi utilizado para simular um paciente. As moldagens foram tomadas e os modelos foram vazados e montados em um articulador semi-ajustável por meio da transferência do arco-facial e do registro de mordida em cera. Traçados de previsão de 10 planos de tratamento diferentes foram feitos no software Dolphin Imaging e, então, reproduzidos com o método padrão (CM I) e método modificado (CM II) de cirurgia de modelos (T1). Para aprimorar a avaliação do reposicionamento mandibular, as cirurgias de modelo foram repetidas após um mês (T2). Os modelos mandibulares foram medidos na Plataforma de Erickson antes e depois do reposicionamento para contrastar os resultados. As diferenças no tempo de reposicionamento também foram registradas. Estatística descritiva e teste t foram usados para análisar os dados e comparar os resultados. Este estudo sugere que o reposicionamento vertical e látero-lateral dos modelos mandibulares foram semelhantes com ambos os métodos, entretanto, houve uma maior imprecisão no sentido ântero-posterior quando o método padrão de cirurgia modelos foi utilizado para o planejamento de cirurgias ortognáticas com a seqüência invertida. O tempo necessário para reposicionar o modelo mandibular no articulador semi-ajustável com a abordagem modificada (CM II) foi significativamente menor do que para reposicionar o modelo maxilar na Plataforma de Erickson (CM I).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho visa a investigar historicamente o uso de droga enquanto objeto de intervenção da Medicina e da Psiquiatria, a partir do início do século XX até os dias atuais, refletindo sobre a articulação e a cooperação entre essas duas instituições, inserindo o problema no panorama geral da questão no Brasil e no mundo. Para atingir esse objetivo, farse-á a análise de documentos produzidos ao longo do período referido nos dois âmbitos: documentos legais e as principais referências da bibliografia psiquiátrica. Assim, o principal foco do estudo é encontrar as convergências e divergências dos processos de medicalização e criminalização do uso de droga, dando especial atenção para o arranjo atual dessa problemática. Após a análise documental, far-se-á um contraponto das informações colhidas na pesquisa com alguns trabalhos genealógicos de Michel Foucault, pensando como este teórico pode ajudar a compreender o surgimento, a evolução e a configuração atual da questão da droga no Brasil.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Um grande desafio da atualidade é a preservação dos recursos hídricos, bem como o correto manejo dos mesmos, frente à expansão das cidades e às atividades humanas. A qualidade de um corpo hídrico é usualmente avaliada através da análise de parâmetros biológicos, físicos e químicos. O comportamento de tais parâmetros pode convenientemente ser simulado através de modelos matemáticos e computacionais, que surgem assim como uma ferramenta bastante útil, por sua capacidade de geração de cenários que possam embasar, por exemplo, tomadas de decisão. Nesta tese são discutidas técnicas de estimação da localização e intensidade de uma fonte de contaminante conservativo, hipoteticamente lançado na região predominantemente fluvial de um estuário. O lançamento aqui considerado se dá de forma pontual e contínua e a região enfocada compreendeu o estuário do Rio Macaé, localizado na costa norte do Rio de Janeiro. O trabalho compreende a solução de um problema direto, que consiste no transporte bidimensional (integrado na vertical) desse contaminante hipotético, bem como a aplicação de técnicas de problemas inversos. Para a solução do transporte do contaminante, aqui modelada pela versão 2D horizontal da equação de advecção-difusão, foram utilizados como métodos de discretização o Método de Elementos Finitos e o Método de Diferenças Finitas. Para o problema hidrodinâmico foram utilizados dados de uma solução já desenvolvida para estuário do Rio Macaé. Analisada a malha de acordo com o método de discretização, foram definidas a geometria do estuário e os parâmetros hidrodinâmicos e de transporte. Para a estimação dos parâmetros propostos foi utilizada a técnica de problemas inversos, com o uso dos métodos Luus-Jaakola, Algoritmo de Colisão de Partículas e Otimização por Colônia de Formigas para a estimação da localização e do método Seção Áurea para a estimação do parâmetro de intensidade da fonte. Para a definição de uma fonte, com o objetivo de propor um cenário experimental idealizado e de coleta de dados de amostragem, foi realizada a análise de sensibilidade quanto aos parâmetros a serem estimados. Como os dados de amostragem de concentração foram sintéticos, o problema inverso foi resolvido utilizando-os com e sem ruído, esse introduzido de forma artificial e aleatória. Sem o uso de ruído, os três métodos mostraram-se igualmente eficientes, com uma estimação precisa em 95% das execuções. Já com o uso de dados de amostragem com ruídos de 5%, o método Luus-Jaakola mostrou-se mais eficiente em esforço e custo computacional, embora todos tenham estimado precisamente a fonte em 80% das execuções. Considerando os resultados alcançados neste trabalho tem-se que é possível estimar uma fonte de constituintes, quanto à sua localização e intensidade, através da técnica de problemas inversos. Além disso, os métodos aplicados mostraram-se eficientes na estimação de tais parâmetros, com estimações precisas para a maioria de suas execuções. Sendo assim, o estudo do comportamento de contaminantes, e principalmente da identificação de fontes externas, torna-se uma importante ferramenta para a gestão dos recursos hídricos, possibilitando, inclusive, a identificação de possíveis responsáveis por passivos ambientais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No presente trabalho, o modelo de identificação de danos apresentado por Stutz et al. (2005) é utilizado. A contribuição do presente trabalho consiste em avaliar alguns pontos da identificação de danos em vigas e, em seguida, expandir o modelo para identificar danos estruturais em placas. Uma avaliação do comportamento das frequências naturais e da matriz de flexibilidade para uma viga de Euler-Bernoulli simplesmente apoiada, na presença de danos simulados pelo parâmetro de coesão é realizada. Essa análise, permite também o conhecimento das regiões onde há maior sensibilidade ao dano, ajudando a traçar estratégias para melhorar a identificação de danos em regiões que sofrem poucas alterações na presença de falhas estruturais. Comparou-se o comportamento dos dois primeiros modos de vibração da viga simplesmente apoiada na presença de um dano estrutural, com os dois primeiros modos de vibração da estrutura intacta e corrompidos por ruído. Diversos métodos de localização de danos e de otimização são avaliados na tentativa de identificar os danos simulados através do campo de danos proposto por Stutz et al. (2005) na presença de dados ruidosos. Após a apresentação de resultados da identificação de danos obtidos para uma viga de Euler-Bernoulli simplesmente apoiada, uma análise do comportamento das frequências naturais e da matriz de flexibilidade de uma viga de Euler- Bernoulli engastada na presença de danos é apresentada, assim como os resultados de identificação de danos considerando-se diversos cenários e níveis de ruído. Uma importante contribuição do presente trabalho consiste em propor um método de identificação de danos via matriz de flexibilidade onde o campo de defeitos para a placa de Kirchoff é modelado via MEF. Uma análise do comportamento da matriz de flexibilidade devido à presença de danos na placa é apresentada, assim como os resultados numéricos da identificação de danos estruturais com e sem a presença de dados ruidosos. Com a finalidade de reduzir o custo computacional na identificação de danos em estruturas complexas, uma hibridização entre o método de otimização por enxame de particulas (PSO, do inglês, Particle Swarm Optimization) e o método de otimização Levenberg-Marquardt é proposta. Resultados numéricos da hibridização para uma estrutura do tipo placa são apresentados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho apresenta um estudo referente à aplicação da abordagem Bayesiana como técnica de solução do problema inverso de identificação de danos estruturais, onde a integridade da estrutura é continuamente descrita por um parâmetro estrutural denominado parâmetro de coesão. A estrutura escolhida para análise é uma viga simplesmente apoiada do tipo Euler-Bernoulli. A identificação de danos é baseada em alterações na resposta impulsiva da estrutura, provocadas pela presença dos mesmos. O problema direto é resolvido através do Método de Elementos Finitos (MEF), que, por sua vez, é parametrizado pelo parâmetro de coesão da estrutura. O problema de identificação de danos é formulado como um problema inverso, cuja solução, do ponto de vista Bayesiano, é uma distribuição de probabilidade a posteriori para cada parâmetro de coesão da estrutura, obtida utilizando-se a metodologia de amostragem de Monte Carlo com Cadeia de Markov. As incertezas inerentes aos dados medidos serão contempladas na função de verossimilhança. Três estratégias de solução são apresentadas. Na Estratégia 1, os parâmetros de coesão da estrutura são amostrados de funções densidade de probabilidade a posteriori que possuem o mesmo desvio padrão. Na Estratégia 2, após uma análise prévia do processo de identificação de danos, determina-se regiões da viga potencialmente danificadas e os parâmetros de coesão associados à essas regiões são amostrados a partir de funções de densidade de probabilidade a posteriori que possuem desvios diferenciados. Na Estratégia 3, após uma análise prévia do processo de identificação de danos, apenas os parâmetros associados às regiões identificadas como potencialmente danificadas são atualizados. Um conjunto de resultados numéricos é apresentado levando-se em consideração diferentes níveis de ruído para as três estratégias de solução apresentadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A engenharia geotécnica é uma das grandes áreas da engenharia civil que estuda a interação entre as construções realizadas pelo homem ou de fenômenos naturais com o ambiente geológico, que na grande maioria das vezes trata-se de solos parcialmente saturados. Neste sentido, o desempenho de obras como estabilização, contenção de barragens, muros de contenção, fundações e estradas estão condicionados a uma correta predição do fluxo de água no interior dos solos. Porém, como a área das regiões a serem estudas com relação à predição do fluxo de água são comumente da ordem de quilômetros quadrados, as soluções dos modelos matemáticos exigem malhas computacionais de grandes proporções, ocasionando sérias limitações associadas aos requisitos de memória computacional e tempo de processamento. A fim de contornar estas limitações, métodos numéricos eficientes devem ser empregados na solução do problema em análise. Portanto, métodos iterativos para solução de sistemas não lineares e lineares esparsos de grande porte devem ser utilizados neste tipo de aplicação. Em suma, visto a relevância do tema, esta pesquisa aproximou uma solução para a equação diferencial parcial de Richards pelo método dos volumes finitos em duas dimensões, empregando o método de Picard e Newton com maior eficiência computacional. Para tanto, foram utilizadas técnicas iterativas de resolução de sistemas lineares baseados no espaço de Krylov com matrizes pré-condicionadoras com a biblioteca numérica Portable, Extensible Toolkit for Scientific Computation (PETSc). Os resultados indicam que quando se resolve a equação de Richards considerando-se o método de PICARD-KRYLOV, não importando o modelo de avaliação do solo, a melhor combinação para resolução dos sistemas lineares é o método dos gradientes biconjugados estabilizado mais o pré-condicionador SOR. Por outro lado, quando se utiliza as equações de van Genuchten deve ser optar pela combinação do método dos gradientes conjugados em conjunto com pré-condicionador SOR. Quando se adota o método de NEWTON-KRYLOV, o método gradientes biconjugados estabilizado é o mais eficiente na resolução do sistema linear do passo de Newton, com relação ao pré-condicionador deve-se dar preferência ao bloco Jacobi. Por fim, há evidências que apontam que o método PICARD-KRYLOV pode ser mais vantajoso que o método de NEWTON-KRYLOV, quando empregados na resolução da equação diferencial parcial de Richards.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Diversas aplicações industriais relevantes envolvem os processos de adsorção, citando como exemplos a purificação de produtos, separação de substâncias, controle de poluição e umidade entre outros. O interesse crescente pelos processos de purificação de biomoléculas deve-se principalmente ao desenvolvimento da biotecnologia e à demanda das indústrias farmacêutica e química por produtos com alto grau de pureza. O leito móvel simulado (LMS) é um processo cromatográfico contínuo que tem sido aplicado para simular o movimento do leito de adsorvente, de forma contracorrente ao movimento do líquido, através da troca periódica das posições das correntes de entrada e saída, sendo operado de forma contínua, sem prejuízo da pureza das correntes de saída. Esta consiste no extrato, rico no componente mais fortemente adsorvido, e no rafinado, rico no componente mais fracamente adsorvido, sendo o processo particularmente adequado a separações binárias. O objetivo desta tese é estudar e avaliar diferentes abordagens utilizando métodos estocásticos de otimização para o problema inverso dos fenômenos envolvidos no processo de separação em LMS. Foram utilizados modelos discretos com diferentes abordagens de transferência de massa, com a vantagem da utilização de um grande número de pratos teóricos em uma coluna de comprimento moderado, neste processo a separação cresce à medida que os solutos fluem através do leito, isto é, ao maior número de vezes que as moléculas interagem entre a fase móvel e a fase estacionária alcançando assim o equilíbrio. A modelagem e a simulação verificadas nestas abordagens permitiram a avaliação e a identificação das principais características de uma unidade de separação do LMS. A aplicação em estudo refere-se à simulação de processos de separação do Baclofen e da Cetamina. Estes compostos foram escolhidos por estarem bem caracterizados na literatura, estando disponíveis em estudos de cinética e de equilíbrio de adsorção nos resultados experimentais. De posse de resultados experimentais avaliou-se o comportamento do problema direto e inverso de uma unidade de separação LMS visando comparar os resultados obtidos com os experimentais, sempre se baseando em critérios de eficiência de separação entre as fases móvel e estacionária. Os métodos estudados foram o GA (Genetic Algorithm) e o PCA (Particle Collision Algorithm) e também foi feita uma hibridização entre o GA e o PCA. Como resultado desta tese analisouse e comparou-se os métodos de otimização em diferentes aspectos relacionados com o mecanismo cinético de transferência de massa por adsorção e dessorção entre as fases sólidas do adsorvente.