37 resultados para matemática computacional

em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Redes de trocadores de calor são bastante utilizadas na indústria química para promover a integração energética do processo, recuperando calor de correntes quentes para aquecer correntes frias. Estas redes estão sujeitas à deposição, o que causa um aumento na resistência à transferência de calor, prejudicando-a. Uma das principais formas de diminuir o prejuízo causado por este fenômeno é a realização periódica de limpezas nos trocadores de calor. O presente trabalho tem como objetivo desenvolver um novo método para encontrar a programação ótima das limpezas em uma rede de trocadores de calor. O método desenvolvido utiliza o conceito de horizonte deslizante associado a um problema de programação linear inteira mista (MILP). Este problema MILP é capaz de definir o conjunto ótimo de trocadores de calor a serem limpos em um determinado instante de tempo (primeiro instante do horizonte deslizante), levando em conta sua influência nos instantes futuros (restante do horizonte deslizante). O problema MILP utiliza restrições referentes aos balanços de energia, equações de trocadores de calor e número máximo de limpezas simultâneas, com o objetivo de minimizar o consumo de energia da planta. A programação ótima das limpezas é composta pela combinação dos resultados obtidos em cada um dos instantes de tempo.O desempenho desta abordagem foi analisado através de sua aplicação em diversos exemplos típicos apresentados na literatura, inclusive um exemplo de grande porte de uma refinaria brasileira. Os resultados mostraram que a abordagem aplicada foi capaz de prover ganhos semelhantes e, algumas vezes, superiores aos da literatura, indicando que o método desenvolvido é capaz de fornecer bons resultados com um baixo esforço computacional

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Em 1828 foi observado um fenômeno no microscópio em que se visualizava minúsculos grãos de pólen mergulhados em um líquido em repouso que mexiam-se de forma aleatória, desenhando um movimento desordenado. A questão era compreender este movimento. Após cerca de 80 anos, Einstein (1905) desenvolveu uma formulação matemática para explicar este fenômeno, tratado por movimento Browniano, teoria cada vez mais desenvolvida em muitas das áreas do conhecimento, inclusive recentemente em modelagem computacional. Objetiva-se pontuar os pressupostos básicos inerentes ao passeio aleatório simples considerando experimentos com e sem problema de valor de contorno para melhor compreensão ao no uso de algoritmos aplicados a problemas computacionais. Foram explicitadas as ferramentas necessárias para aplicação de modelos de simulação do passeio aleatório simples nas três primeiras dimensões do espaço. O interesse foi direcionado tanto para o passeio aleatório simples como para possíveis aplicações para o problema da ruína do jogador e a disseminação de vírus em rede de computadores. Foram desenvolvidos algoritmos do passeio aleatório simples unidimensional sem e com o problema do valor de contorno na plataforma R. Similarmente, implementados para os espaços bidimensionais e tridimensionais,possibilitando futuras aplicações para o problema da disseminação de vírus em rede de computadores e como motivação ao estudo da Equação do Calor, embora necessita um maior embasamento em conceitos da Física e Probabilidade para dar continuidade a tal aplicação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os principais constituintes do ar, nitrogênio, oxigênio e argônio, estão cada vez mais presentes nas indústrias, onde são empregados nos processos químicos, para o transporte de alimentos e processamento de resíduos. As duas principais tecnologias para a separação dos componentes do ar são a adsorção e a destilação criogênica. Entretanto, para ambos os processos é necessário que os contaminantes do ar, como o gás carbônico, o vapor dágua e hidrocarbonetos, sejam removidos para evitar problemas operacionais e de segurança. Desta forma, o presente trabalho trata do estudo do processo de pré-purificação de ar utilizando adsorção. Neste sistema a corrente de ar flui alternadamente entre dois leitos adsorvedores para produzir ar purificado continuamente. Mais especificamente, o foco da dissertação corresponde à investigação do comportamento de unidades de pré-purificação tipo PSA (pressure swing adsorption), onde a etapa de dessorção é realizada pela redução da pressão. A análise da unidade de pré-purificação parte da modelagem dos leitos de adsorção através de um sistema de equações diferenciais parciais de balanço de massa na corrente gasosa e no leito. Neste modelo, a relação de equilíbrio relativa à adsorção é descrita pela isoterma de Dubinin-Astakhov estendida para misturas multicomponentes. Para a simulação do modelo, as derivadas espaciais são discretizadas via diferenças finitas e o sistema de equações diferenciais ordinárias resultante é resolvido por um solver apropriado (método das linhas). Para a simulação da unidade em operação, este modelo é acoplado a um algoritmo de convergência relativo às quatro etapas do ciclo de operação: adsorção, despressurização, purga e dessorção. O algoritmo em questão deve garantir que as condições finais da última etapa são equivalentes às condições iniciais da primeira etapa (estado estacionário cíclico). Desta forma, a simulação foi implementada na forma de um código computacional baseado no ambiente de programação Scilab (Scilab 5.3.0, 2010), que é um programa de distribuição gratuita. Os algoritmos de simulação de cada etapa individual e do ciclo completo são finalmente utilizados para analisar o comportamento da unidade de pré-purificação, verificando como o seu desempenho é afetado por alterações nas variáveis de projeto ou operacionais. Por exemplo, foi investigado o sistema de carregamento do leito que mostrou que a configuração ideal do leito é de 50% de alumina seguido de 50% de zeólita. Variáveis do processo foram também analisadas, a pressão de adsorção, a vazão de alimentação e o tempo do ciclo de adsorção, mostrando que o aumento da vazão de alimentação leva a perda da especificação que pode ser retomada reduzindo-se o tempo do ciclo de adsorção. Mostrou-se também que uma pressão de adsorção maior leva a uma maior remoção de contaminantes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho, foi desenvolvido um simulador numérico baseado no método livre de malhas Smoothed Particle Hydrodynamics (SPH) para a resolução de escoamentos de fluidos newtonianos incompressíveis. Diferentemente da maioria das versões existentes deste método, o código numérico faz uso de uma técnica iterativa na determinação do campo de pressões. Este procedimento emprega a forma diferencial de uma equação de estado para um fluido compressível e a equação da continuidade a fim de que a correção da pressão seja determinada. Uma versão paralelizada do simulador numérico foi implementada usando a linguagem de programação C/C++ e a Compute Unified Device Architecture (CUDA) da NVIDIA Corporation. Foram simulados três problemas, o problema unidimensional do escoamento de Couette e os problemas bidimensionais do escoamento no interior de uma Cavidade (Shear Driven Cavity Problem) e da Quebra de Barragem (Dambreak).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A estimação de parâmetros cinéticos em processos químicos e cromatográficos utilizando técnicas numéricas assistidas por computadores tem conduzido para melhoria da eficiência e o favorecimento da compreensão das fenomenologias envolvidas nos mesmos. Na primeira parte deste trabalho será realizada a modelagem computacional do processo de produção de biodiesel via esterificação, sendo que, o método de otimização estocástica Random Restricted Window (R2W) será correlacionado com os dados experimentais da produção de biodiesel a partir da esterificação do ácido láurico com etanol anidro na presença do catalisador ácido nióbico (Nb2O5). Na segunda parte do mesmo será realizada a modelagem computacional do processo de cromatografia de adsorção (batch process) onde serão correlacionados os dados provenientes dos modelos cinéticos de HASHIM, CHASE e IKM2 com os dados experimentais da adsorção de amoxicilina com quitosana, e também serão correlacionados os dados experimentais da adsorção de Bovine Serum Albumin (BSA) com Streamline DEAE com os dados provenientes de uma nova aplicação do método R2W mediante a implementação de um modelo cinético reversível. Ademais, as constantes cinéticas para cada processo supracitado serão estimadas levando em consideração o valor mínimo da função resíduos quadrados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Qual a Filosofia da Natureza que podemos inferir da Física Contemporânea? Para Werner Karl Heisenberg, prêmio Nobel de Física de 1932, a ontologia da Ciência Moderna, estruturada no materialismo, no mecanicismo e no determinismo já não pode servir de fundamento para a nova Física. Esta requer uma nova base ontológica, onde o antirrealismo, seguido de um formalismo puro, aparece como o princípio basilar de uma nova Filosofia Natural. Este trabalho visa investigar o pensamento filosófico, a ontologia antirrealista, formalista, a abordagem da tradição filosófica e da história da ciência de Werner Heisenberg e sua contribuição para a interpretação da mecânica quântica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação é o resultado do meu verouvirsentir e busca evidenciar que, nas relações desenvolvidas no processo do ensino da matemática, as histórias em quadrinhos podem-se revelar um instrumento eficaz para a aplicação de uma metodologia alternativa dotada de uma potência extraordinária na interlocução entre a criança e o conteúdo matemático. Nesse contexto, um dos maiores argumentos que encontro, ao final desta jornada, é que fica a percepção de que o livro didático adotado (referência para o conteúdo teoricoprático), em quase sua totalidade, não favorece que os alunos estabeleçam uma relação com a matemática pautada na atenção, curiosidade, alegria e outros fatores/elementos que permitam o crescimento cognitivo desses alunos na referida disciplina. A pesquisa é realizadasentida em uma escola particular de ensino fundamental e médio situada em Realengo em três turmas de 6 ano. Esses alunos variam entre 10 e 13 anos de idade e aproximadamente 90% deles são oriundos de famílias de classe média. Para realizarsentir esta pesquisa, percebo que, fundamentalmente, faço uso de duas metodologias que se revelam a priori: pesquisa-ação e o mergulho (ALVES, 2008). Realizo alguns diálogos que se consolidam como aporte teórico e que norteiam toda a minha escrita. Esses diálogos podem ou não aparecer nas citações que faço. Os diálogos invisibilizados pela minha escrita de modo algum foram menos importantes e tampouco são considerados menos relevantes, na verdade, conduzem minha escrita, misturando-se em minhas próprias palavras a ponto de se tornarem indissociáveis. Nesses diálogos, encontro-me com Michel de Certeau, Paulo Sgarbi, Nilda Alves, Humberto Maturana, Inês Barbosa, Von Foerster, Michel Focault, Edgard Morin, Will Eisner, Ginsburg, entre outros. Como resultados, ficou evidenciado que, ao oferecer a possibilidade de reescrita da teoria matemática através das histórias em quadrinhos, os alunos (na sua maioria) desenvolveram uma capacidade maior de concentração, atenção aos detalhes da própria teoria e a diminuição significativa da resistência ao conteúdo matemático. Uma velhanova linguagem? Em um velhonovo meio? Seja qual for a conclusão, a aventura do desafio na busca da construção de uma nova relação entre a criança e a matemática, por si só, permite a exposição de tensões e oportuniza o crescimento de todos. Nessa jornada, de ação em ação, busco fazer algo significativo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Somente no ano de 2011 foram adquiridos mais de 1.000TB de novos registros digitais de imagem advindos de Sensoriamento Remoto orbital. Tal gama de registros, que possui uma progressão geométrica crescente, é adicionada, anualmente, a incrível e extraordinária massa de dados de imagens orbitais já existentes da superfície da Terra (adquiridos desde a década de 70 do século passado). Esta quantidade maciça de registros, onde a grande maioria sequer foi processada, requer ferramentas computacionais que permitam o reconhecimento automático de padrões de imagem desejados, de modo a permitir a extração dos objetos geográficos e de alvos de interesse, de forma mais rápida e concisa. A proposta de tal reconhecimento ser realizado automaticamente por meio da integração de técnicas de Análise Espectral e de Inteligência Computacional com base no Conhecimento adquirido por especialista em imagem foi implementada na forma de um integrador com base nas técnicas de Redes Neurais Computacionais (ou Artificiais) (através do Mapa de Características Auto- Organizáveis de Kohonen SOFM) e de Lógica Difusa ou Fuzzy (através de Mamdani). Estas foram aplicadas às assinaturas espectrais de cada padrão de interesse, formadas pelos níveis de quantização ou níveis de cinza do respectivo padrão em cada uma das bandas espectrais, de forma que a classificação dos padrões irá depender, de forma indissociável, da correlação das assinaturas espectrais nas seis bandas do sensor, tal qual o trabalho dos especialistas em imagens. Foram utilizadas as bandas 1 a 5 e 7 do satélite LANDSAT-5 para a determinação de cinco classes/alvos de interesse da cobertura e ocupação terrestre em três recortes da área-teste, situados no Estado do Rio de Janeiro (Guaratiba, Mangaratiba e Magé) nesta integração, com confrontação dos resultados obtidos com aqueles derivados da interpretação da especialista em imagens, a qual foi corroborada através de verificação da verdade terrestre. Houve também a comparação dos resultados obtidos no integrador com dois sistemas computacionais comerciais (IDRISI Taiga e ENVI 4.8), no que tange a qualidade da classificação (índice Kappa) e tempo de resposta. O integrador, com classificações híbridas (supervisionadas e não supervisionadas) em sua implementação, provou ser eficaz no reconhecimento automático (não supervisionado) de padrões multiespectrais e no aprendizado destes padrões, pois para cada uma das entradas dos recortes da área-teste, menor foi o aprendizado necessário para sua classificação alcançar um acerto médio final de 87%, frente às classificações da especialista em imagem. A sua eficácia também foi comprovada frente aos sistemas computacionais testados, com índice Kappa médio de 0,86.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta uma modelagem matemática para o processo de aquecimento de um corpo exposto a uma fonte pontual de radiação térmica. O resultado original que permite a solução exata de uma equação diferencial parcial não linear a partir de uma seqüência de problemas lineares também é apresentado. Gráficos gerados com resultados obtidos pelo método de diferenças finitas ilustram a solução do problema proposto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho é a aplicação de um Planejamento Fatorial Completo, ferramenta estatística que auxiliará a obter dados empíricos para otimizar um tratamento termoquímico, a cementação. Partindo-se de um levantamento da profundidade de camada cementada e da dureza de uma corrente de aço de baixo teor de carbono, usada para amarração, e para resistir à abrasão reproduziu-se uma nova cementação, variando-se seus parâmetros de influência, para se alcançar o ponto ótimo, definindo o melhor aço e o melhor processo. Foram realizados dois planejamentos, um fatorial 2 e dois 2, comparando o comportamento do processo na prática em relação aos resultados teóricos de uma simulação computacional, que permite a obtenção das curvas de enriquecimento de carbono, baseado na segunda Lei de Fick, para várias condições de contorno. Os perfis teóricos de cementação apresentaram valores de profundidade efetiva próximos aos valores obtidos experimentalmente, evidenciando o planejamento realizado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho que envolve matemática aplicada e processamento paralelo: seu objetivo é avaliar uma estratégia de implementação em paralelo para algoritmos de diferenças finitas que aproximam a solução de equações diferenciais de evolução. A alternativa proposta é a substituição dos produtos matriz-vetor efetuados sequencialmente por multiplicações matriz-matriz aceleradas pelo método de Strassen em paralelo. O trabalho desenvolve testes visando verificar o ganho computacional relacionado a essa estratégia de paralelização, pois as aplicacações computacionais, que empregam a estratégia sequencial, possuem como característica o longo período de computação causado pelo grande volume de cálculo. Inclusive como alternativa, nós usamos o algoritmo em paralelo convencional para solução de algoritmos explícitos para solução de equações diferenciais parciais evolutivas no tempo. Portanto, de acordo com os resultados obtidos, nós observamos as características de cada estratégia em paralelo, tendo como principal objetivo diminuir o esforço computacional despendido.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A modelagem matemática e computacional é uma ferramenta que tem sido bastante utilizada no campo da Biologia e das Ciências Biomédicas. Nos dias de hoje, uma quantidade significativa de dados experimentais nessa área pode ser encontrada na literatura, tornando possível o desenvolvimento de modelos que combinem a experimentação e hipóteses teóricas. O objetivo do presente projeto é implementar um modelo matemático de transmissão sináptica conectando neurônios em um circuito de descargas repetitivas ou reverberativo, a fim de investigar o seu comportamento diante de variações paramétricas. Através de simulações computacionais, utilizando um programa desenvolvido em linguagem C++, pretende-se utilizá-lo para simular um circuito de memória imediata. Afora o considerável avanço da Neurofisiologia e Neurociência computacional no sentido do entendimento das características fisiológicas e comportamentais das habilidades do Sistema Nervoso Central, muitos mecanismos neuronais ainda permanecem completamente obscuros. Ainda não se conhece definitivamente o mecanismo pelo qual o cérebro adquire, armazena e evoca as informações. Porém, o postulado de Hebb referente às redes reverberantes, onde a idéia de que redes de reverberação facilitariam a associação de dados coincidentes entre informações sensoriais, temporalmente divergentes, tem sido aceito para explicar a formação de memória imediata (Johnson et al., 2009). Assim, com base no postulado de Hebb, os resultados observados no modelo neuromatemático-computacional adotado possuem características de um circuito de memória imediata.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente dissertação propõe uma abordagem alternativa na simulação matemática de um cenário preocupante em ecologia: o controle de pragas nocivas a uma dada lavoura de soja em uma específica região geográfica. O instrumental teórico empregado é a teoria dos jogos, de forma a acoplar ferramentas da matemática discreta à análise e solução de problemas de valor inicial em equações diferenciais, mais especificamente, as chamadas equações de dinâmica populacional de Lotka-Volterra com competição. Essas equações, que modelam o comportamento predador-presa, possuem, com os parâmetros inicialmente utilizados, um ponto de equilíbrio mais alto que o desejado no contexto agrícola sob exame, resultando na necessidade de utilização da teoria do controle ótimo. O esquema desenvolvido neste trabalho conduz a ferramentas suficientemente simples, de forma a tornar viável o seu uso em situações reais. Os dados utilizados para o tratamento do problema que conduziu a esta pesquisa interdisciplinar foram coletados de material bibliográfico da Empresa Brasileira de Pesquisa Agropecuária EMBRAPA.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Uma dedução dos critérios de multicriticalidade para o cálculo de pontos críticos de qualquer ordem representa a formalização de ideias utilizadas para calcular pontos críticos e tricríticos e ainda amplia tais ideias. De posse desta dedução pode-se compreender os critérios de tricriticalidade e, com isso, através de uma abordagem via problema de otimização global pode-se fazer o cálculo de pontos tricríticos utilizando um método numérico adequado de otimização global. Para evitar um excesso de custo computacional com rotinas numéricas utilizou-se aproximações na forma de diferenças finitas dos termos que compõem a função objetivo. Para simular a relação P v - T optou-se pela equação de estado cúbica de Peng-Robinson e pela regra clássica de fluidos de van der Vaals, para modelagem do problema também se calculou os tensores de ordem 2, 3, 4 e 5 da função do teste de estabilidade. Os resultados obtidos foram comparados com dados experimentais e por resultados obtidos com outros autores que utilizaram métodos numéricos, equação de estado ou abordagem diferente das utilizadas neste trabalho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O conceito de objetividade é central na epistemologia de Gaston Bachelard (1884-1962). O problema que a pesquisa busca solucionar é a definição de objetividade na filosofia bachelardiana, o que implica na necessidade de explicitar a relação entre a objetividade e a matemática. A partir da leitura e da análise da obra epistemológica de Bachelard que trata da questão da objetividade, é demonstrado que o filósofo utiliza dois diferentes conceitos de objetividade: o primeiro é o de objetividade como reconhecimento e afastamento dos obstáculos epistemológicos que se apresentam como imagens subjetivas na prática científica; o segundo conceito é o de objetividade como o processo de retificação do conhecimento científico. Apresenta-se um exemplo de objetivação: o conceito de substância, no sentido realista ingênuo, desaparece nas ciências físicas do século XX, e surge o conceito complexo de um átomo não substancial, mas matemático. A partir desse exemplo, é demonstrado que, para Bachelard, o processo de objetivação do conhecimento é sincrônico ao processo de matematização do objeto. e a razão para essa relação entre a matematização e a objetivação é explicada.