66 resultados para Matemática - Problemas, exercícios, etc

em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Um Estudo para a solução numérica do modelo de difusão com retenção, proposta por Bevilacqua et al. (2011), é apresentado, bem como uma formulação implícita para o problema inverso para a estimativa dos parâmetros envolvidos na formulação matemática do modelo. Através de um estudo minucioso da análise de sensibilidade e do cálculo do coeficiente de correlação de Pearson, são identificadas as chances de se obter sucesso na solução do problema inverso através do método determinístico de Levenberg-Marquardt e dos métodos estocásticos Algoritmo de Colisão de Partículas (Particle Collision Algorithm - PCA) e Evolução Diferencial (Differential Evolution - DE). São apresentados os resultados obtidos através destes três métodos de otimização para três casos de conjunto de parâmetros. Foi observada uma forte correlação entre dois destes três parâmetros, o que dificultou a estimativa simultânea dos mesmos. Porém, foi obtido sucesso nas estimativas individuais de cada parâmetro. Foram obtidos bons resultados para os fatores que multiplicam os termos diferenciais da equação que modela o fenômeno de difusão com retenção.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho apresenta uma modelagem matemática para o processo de aquecimento de um corpo exposto a uma fonte pontual de radiação térmica. O resultado original que permite a solução exata de uma equação diferencial parcial não linear a partir de uma seqüência de problemas lineares também é apresentado. Gráficos gerados com resultados obtidos pelo método de diferenças finitas ilustram a solução do problema proposto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente estudo parte da análise de uma amostra de 100 redações produzidas no exame de Vestibular da UERJ/2002. Tem por objetivo estabelecer critérios para o reconhecimento dos problemas de progressão argumentativa. Com base nas teorias propostas em Lingüística Textual e Análise do Discurso discutiram-se as noções de Cognição, Textualidade, Argumentação e coerência. Apresentou-se uma proposta metodológica de Produção Textual no Ensino Médio e exercícios didáticos. Os resultados da pesquisa apontam para a necessidade de que os recentes estudos sobre Cognição, Textualidade, Argumentação, Progressão e Métodos de Produção Textual sejam divulgados, debatidos e absorvidos pelos profissionais que exercem o ensino da disciplina

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A presente dissertação propõe uma abordagem alternativa na simulação matemática de um cenário preocupante em ecologia: o controle de pragas nocivas a uma dada lavoura de soja em uma específica região geográfica. O instrumental teórico empregado é a teoria dos jogos, de forma a acoplar ferramentas da matemática discreta à análise e solução de problemas de valor inicial em equações diferenciais, mais especificamente, as chamadas equações de dinâmica populacional de Lotka-Volterra com competição. Essas equações, que modelam o comportamento predador-presa, possuem, com os parâmetros inicialmente utilizados, um ponto de equilíbrio mais alto que o desejado no contexto agrícola sob exame, resultando na necessidade de utilização da teoria do controle ótimo. O esquema desenvolvido neste trabalho conduz a ferramentas suficientemente simples, de forma a tornar viável o seu uso em situações reais. Os dados utilizados para o tratamento do problema que conduziu a esta pesquisa interdisciplinar foram coletados de material bibliográfico da Empresa Brasileira de Pesquisa Agropecuária EMBRAPA.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta dissertação aplica a regularização por entropia máxima no problema inverso de apreçamento de opções, sugerido pelo trabalho de Neri e Schneider em 2012. Eles observaram que a densidade de probabilidade que resolve este problema, no caso de dados provenientes de opções de compra e opções digitais, pode ser descrito como exponenciais nos diferentes intervalos da semireta positiva. Estes intervalos são limitados pelos preços de exercício. O critério de entropia máxima é uma ferramenta poderosa para regularizar este problema mal posto. A família de exponencial do conjunto solução, é calculado usando o algoritmo de Newton-Raphson, com limites específicos para as opções digitais. Estes limites são resultados do princípio de ausência de arbitragem. A metodologia foi usada em dados do índice de ação da Bolsa de Valores de São Paulo com seus preços de opções de compra em diferentes preços de exercício. A análise paramétrica da entropia em função do preços de opções digitais sínteticas (construídas a partir de limites respeitando a ausência de arbitragem) mostraram valores onde as digitais maximizaram a entropia. O exemplo de extração de dados do IBOVESPA de 24 de janeiro de 2013, mostrou um desvio do princípio de ausência de arbitragem para as opções de compra in the money. Este princípio é uma condição necessária para aplicar a regularização por entropia máxima a fim de obter a densidade e os preços. Nossos resultados mostraram que, uma vez preenchida a condição de convexidade na ausência de arbitragem, é possível ter uma forma de smile na curva de volatilidade, com preços calculados a partir da densidade exponencial do modelo. Isto coloca o modelo consistente com os dados do mercado. Do ponto de vista computacional, esta dissertação permitiu de implementar, um modelo de apreçamento que utiliza o princípio de entropia máxima. Três algoritmos clássicos foram usados: primeiramente a bisseção padrão, e depois uma combinação de metodo de bisseção com Newton-Raphson para achar a volatilidade implícita proveniente dos dados de mercado. Depois, o metodo de Newton-Raphson unidimensional para o cálculo dos coeficientes das densidades exponenciais: este é objetivo do estudo. Enfim, o algoritmo de Simpson foi usado para o calculo integral das distribuições cumulativas bem como os preços do modelo obtido através da esperança matemática.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Diversas aplicações industriais relevantes envolvem os processos de adsorção, citando como exemplos a purificação de produtos, separação de substâncias, controle de poluição e umidade entre outros. O interesse crescente pelos processos de purificação de biomoléculas deve-se principalmente ao desenvolvimento da biotecnologia e à demanda das indústrias farmacêutica e química por produtos com alto grau de pureza. O leito móvel simulado (LMS) é um processo cromatográfico contínuo que tem sido aplicado para simular o movimento do leito de adsorvente, de forma contracorrente ao movimento do líquido, através da troca periódica das posições das correntes de entrada e saída, sendo operado de forma contínua, sem prejuízo da pureza das correntes de saída. Esta consiste no extrato, rico no componente mais fortemente adsorvido, e no rafinado, rico no componente mais fracamente adsorvido, sendo o processo particularmente adequado a separações binárias. O objetivo desta tese é estudar e avaliar diferentes abordagens utilizando métodos estocásticos de otimização para o problema inverso dos fenômenos envolvidos no processo de separação em LMS. Foram utilizados modelos discretos com diferentes abordagens de transferência de massa, com a vantagem da utilização de um grande número de pratos teóricos em uma coluna de comprimento moderado, neste processo a separação cresce à medida que os solutos fluem através do leito, isto é, ao maior número de vezes que as moléculas interagem entre a fase móvel e a fase estacionária alcançando assim o equilíbrio. A modelagem e a simulação verificadas nestas abordagens permitiram a avaliação e a identificação das principais características de uma unidade de separação do LMS. A aplicação em estudo refere-se à simulação de processos de separação do Baclofen e da Cetamina. Estes compostos foram escolhidos por estarem bem caracterizados na literatura, estando disponíveis em estudos de cinética e de equilíbrio de adsorção nos resultados experimentais. De posse de resultados experimentais avaliou-se o comportamento do problema direto e inverso de uma unidade de separação LMS visando comparar os resultados obtidos com os experimentais, sempre se baseando em critérios de eficiência de separação entre as fases móvel e estacionária. Os métodos estudados foram o GA (Genetic Algorithm) e o PCA (Particle Collision Algorithm) e também foi feita uma hibridização entre o GA e o PCA. Como resultado desta tese analisouse e comparou-se os métodos de otimização em diferentes aspectos relacionados com o mecanismo cinético de transferência de massa por adsorção e dessorção entre as fases sólidas do adsorvente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O processo de recuperação secundária de petróleo é comumente realizado com a injeção de água ou gás no reservatório a fim de manter a pressão necessária para sua extração. Para que o investimento seja viável, os gastos com a extração precisam ser menores do que o retorno financeiro obtido com a produção de petróleo. Objetivando-se estudar possíveis cenários para o processo de exploração, costuma-se utilizar simulações dos processos de extração. As equações que modelam esse processo de recuperação são de caráter hiperbólico e não lineares, as quais podem ser interpretadas como Leis de Conservação, cujas soluções são complexas por suas naturezas descontínuas. Essas descontinuidades ou saltos são conhecidas como ondas de choque. Neste trabalho foi abordada uma análise matemática para os fenômenos oriundos de leis de conservação, para em seguida utilizá-la no entendimento do referido problema. Foram estudadas soluções fracas que, fisicamente, podem ser interpretadas como ondas de choque ou rarefação, então, para que fossem distinguidas as fisicamente admissíveis, foi considerado o princípio de entropia, nas suas diversas formas. As simulações foram realizadas nos âmbitos dos escoamentos bifásicos e trifásicos, em que os fluidos são imiscíveis e os efeitos gravitacionais e difusivos, devido à pressão capilar, foram desprezados. Inicialmente, foi feito um estudo comparativo de resoluções numéricas na captura de ondas de choque em escoamento bifásico água-óleo. Neste estudo destacam-se o método Composto LWLF-k, o esquema NonStandard e a introdução da nova função de renormalização para o esquema NonStandard, onde obteve resultados satisfatórios, principalmente em regiões onde a viscosidade do óleo é muito maior do que a viscosidade da água. No escoamento bidimensional, um novo método é proposto, partindo de uma generalização do esquema NonStandard unidimensional. Por fim, é feita uma adaptação dos métodos LWLF-4 e NonStandard para a simulação em escoamentos trifásicos em domínios unidimensional. O esquema NonStandard foi considerado mais eficiente nos problemas abordados, uma vez que sua versão bidimensional mostrou-se satisfatória na captura de ondas de choque em escoamentos bifásicos em meios porosos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Modelos de evolução populacional são há muito tempo assunto de grande relevância, principalmente quando a população de estudo é composta por vetores de doenças. Tal importância se deve ao fato de existirem milhares de doenças que são propagadas por espécies específicas e conhecer como tais populações se comportam é vital quando pretende-se criar políticas públicas para controlar a sua proliferação. Este trabalho descreve um problema de evolução populacional difusivo com armadilhas locais e tempo de reprodução atrasado, o problema direto descreve a densidade de uma população uma vez conhecidos os parâmetros do modelo onde sua solução é obtida por meio da técnica de transformada integral generalizada, uma técnica numérico-analítica. Porém a solução do problema direto, por si só, não permite a simulação computacional de uma população em uma aplicação prática, uma vez que os parâmetros do modelo variam de população para população e precisam, portanto, ter seus valores conhecidos. Com o objetivo de possibilitar esta caracterização, o presente trabalho propõe a formulação e solução do problema inverso, estimando os parâmetros do modelo a partir de dados da população utilizando para tal tarefa dois métodos Bayesianos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os métodos de otimização que adotam condições de otimalidade de primeira e/ou segunda ordem são eficientes e normalmente esses métodos iterativos são desenvolvidos e analisados através da análise matemática do espaço euclidiano n-dimensional, o qual tem caráter local. Esses métodos levam a algoritmos iterativos que são usados para o cálculo de minimizadores globais de uma função não linear, principalmente não-convexas e multimodais, dependendo da posição dos pontos de partida. Método de Otimização Global Topográfico é um algoritmo de agrupamento, o qual é fundamentado nos conceitos elementares da teoria dos grafos, com a finalidade de gerar bons pontos de partida para os métodos de busca local, com base nos pontos distribuídos de modo uniforme no interior da região viável. Este trabalho tem como objetivo a aplicação do método de Otimização Global Topográfica junto com um método robusto e eficaz de direções viáveis por pontos-interiores a problemas de otimização que tem restrições de igualdade e/ou desigualdade lineares e/ou não lineares, que constituem conjuntos viáveis com interiores não vazios. Para cada um destes problemas, é representado também um hiper-retângulo compreendendo cada conjunto viável, onde os pontos amostrais são gerados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O corpo no cristianismo primitivo não é apenas um dado biológico. É um princípio operativo sobre a qual se davam as práticas sociais e, ao mesmo tempo, os compromissos teológicos. O controle do corpo (e, daí, da sexualidade, da reprodução, das práticas ascéticas) era o ponto nevrálgico onde se deveria garantir não apenas a existência interna do grupo (sua continuação no tempo, suas hierarquias e suas diferenciações) mas também seus limites em relação ao meio circundante (o próprio e o impróprio, o puro e o impuro). Uma análise da ideologia do corpo no cristianismo primitivo pressupõe, antes de tudo, a manutenção do grupo, e tento mostrar de que modo ela não somente se beneficiava como se fundamentava na interpretação destas esferas: a das suas práticas sociais (a construção comunitária da moralidade) e a dos seus mecanismos teológicos (a criação de vínculos simbólicos, quer dizer, uma experiência e uma intelecção do que seria, para a grupo, a divindade).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os principais constituintes do ar, nitrogênio, oxigênio e argônio, estão cada vez mais presentes nas indústrias, onde são empregados nos processos químicos, para o transporte de alimentos e processamento de resíduos. As duas principais tecnologias para a separação dos componentes do ar são a adsorção e a destilação criogênica. Entretanto, para ambos os processos é necessário que os contaminantes do ar, como o gás carbônico, o vapor dágua e hidrocarbonetos, sejam removidos para evitar problemas operacionais e de segurança. Desta forma, o presente trabalho trata do estudo do processo de pré-purificação de ar utilizando adsorção. Neste sistema a corrente de ar flui alternadamente entre dois leitos adsorvedores para produzir ar purificado continuamente. Mais especificamente, o foco da dissertação corresponde à investigação do comportamento de unidades de pré-purificação tipo PSA (pressure swing adsorption), onde a etapa de dessorção é realizada pela redução da pressão. A análise da unidade de pré-purificação parte da modelagem dos leitos de adsorção através de um sistema de equações diferenciais parciais de balanço de massa na corrente gasosa e no leito. Neste modelo, a relação de equilíbrio relativa à adsorção é descrita pela isoterma de Dubinin-Astakhov estendida para misturas multicomponentes. Para a simulação do modelo, as derivadas espaciais são discretizadas via diferenças finitas e o sistema de equações diferenciais ordinárias resultante é resolvido por um solver apropriado (método das linhas). Para a simulação da unidade em operação, este modelo é acoplado a um algoritmo de convergência relativo às quatro etapas do ciclo de operação: adsorção, despressurização, purga e dessorção. O algoritmo em questão deve garantir que as condições finais da última etapa são equivalentes às condições iniciais da primeira etapa (estado estacionário cíclico). Desta forma, a simulação foi implementada na forma de um código computacional baseado no ambiente de programação Scilab (Scilab 5.3.0, 2010), que é um programa de distribuição gratuita. Os algoritmos de simulação de cada etapa individual e do ciclo completo são finalmente utilizados para analisar o comportamento da unidade de pré-purificação, verificando como o seu desempenho é afetado por alterações nas variáveis de projeto ou operacionais. Por exemplo, foi investigado o sistema de carregamento do leito que mostrou que a configuração ideal do leito é de 50% de alumina seguido de 50% de zeólita. Variáveis do processo foram também analisadas, a pressão de adsorção, a vazão de alimentação e o tempo do ciclo de adsorção, mostrando que o aumento da vazão de alimentação leva a perda da especificação que pode ser retomada reduzindo-se o tempo do ciclo de adsorção. Mostrou-se também que uma pressão de adsorção maior leva a uma maior remoção de contaminantes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Trata-se de um estudo quantitativo, descritivo, visando uma análise das condições de trabalho em unidades intensivas de um hospital universitário no município do Rio de Janeiro. Foi definido como objeto de estudo a percepção dos trabalhadores de enfermagem sobre os riscos ocupacionais e os problemas de saúde inerentes às condições de trabalho em unidades intensivas e como problema de pesquisa: quais os riscos ocupacionais e problemas de saúde relacionados às condições de trabalho, percebidos pelos trabalhadores de enfermagem, em unidades intensivas de um hospital universitário? O objetivo geral foi estudar nas unidades intensivas os riscos ocupacionais e problemas de saúde da equipe de enfermagem e sua relação com condições de trabalho, a partir da percepção dos mesmos. Os objetivos específicos traçados foram: identificar as características pessoais e profissionais dos trabalhadores de enfermagem de unidades intensivas; descrever os fatores de risco do ambiente de trabalho percebidos pelos trabalhadores de enfermagem; levantar os problemas de saúde percebidos pelos trabalhadores e sua relação com o trabalho; analisar a associação entre os problemas de saúde percebidos pelos trabalhadores de enfermagem e as condições do trabalho em unidades intensivas. Participaram da pesquisa 125 profissionais de enfermagem de quatro unidades intensivas do Hospital Universitário (HU) entre Maio e Julho de 2009. A predominância foi de profissionais do sexo feminino, com idade acima dos 40 anos, com mais de um vínculo empregatício e trabalhando no HU há mais de 10 anos. Os riscos ocupacionais mais percebidos pelos trabalhadores foram os ergonômicos, seguido dos biológicos, de acidentes, físicos e químicos. Os problemas de saúde mais frequentes foram varizes, problemas oculares, lombalgias, estresse e depressão, transtornos do sono, lesões de coluna vertebral, dores de cabeça, mudanças no humor, dores musculares crônicas e hipertensão arterial. Pela associação entre riscos ocupacionais e problemas de saúde, conclui-se que os trabalhadores expostos a fatores de riscos ergonômicos e físicos têm maior probabilidade de adquirir problemas de saúde osteoarticulares e circulatórios (varizes). Diante dos dados desta pesquisa faz-se necessário aprofundamento da investigação sobre os fatores de riscos encontrados e possíveis medidas para minimizá-los, mediante novos estudos. Como recomendações destacam-se a criação de um espaço de discussão entre os gerentes e trabalhadores para a elaboração de um programa que vise a promoção e proteção da saúde do trabalhador de enfermagem de unidades intensivas; implementação de medidas de controle específicas para cada tipo de risco evidenciado e a criação de um Comitê de Ergonomia para operacionalizar a implementação das melhorias no HU, a fim de consolidar as transformações esperadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho, é proposta uma nova família de métodos a ser aplicada à otimização de problemas multimodais. Nestas técnicas, primeiramente são geradas soluções iniciais com o intuito de explorar o espaço de busca. Em seguida, com a finalidade de encontrar mais de um ótimo, estas soluções são agrupadas em subespaços utilizando um algoritmo de clusterização nebulosa. Finalmente, são feitas buscas locais através de métodos determinísticos de otimização dentro de cada subespaço gerado na fase anterior com a finalidade de encontrar-se o ótimo local. A família de métodos é formada por seis variantes, combinando três esquemas de inicialização das soluções na primeira fase e dois algoritmos de busca local na terceira. A fim de que esta nova família de métodos possa ser avaliada, seus constituintes são comparados com outras metodologias utilizando problemas da literatura e os resultados alcançados são promissores.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Muitos programas de coleta seletiva e Usinas de Triagem e Compostagem (UTC) brasileiras tem se mostrado problemáticos, ineficientes ou, até mesmo, inviáveis. Apesar disso, continua a ser uma solução visada por parte de órgãos gestores e da população. Observando que a coleta seletiva e a instalação e operação de UTC são peças importantes para a prática da reciclagem, dentro do contexto de Gerenciamento Integrado de Resíduos Sólidos (GIRS), verifica-se a necessidade de melhor entendimento dos problemas a elas associados para que haja um melhor planejamento e minimização destes problemas. O presente trabalho tem por objetivo principal a recomendação de diretrizes para um estudo de viabilidade e implantação de coleta seletiva e Unidade de Triagem e Compostagem na Vila do Abraão (Angra dos Reis, RJ), observando as características locais e as dificuldades normalmente existentes em programas de coleta seletiva e em operações de UTCs. A análise, que foi feita através de revisão bibliográfica de artigos científicos sobre estudos de casos brasileiros acerca de coleta seletiva, UTC e compostagem, mostrou que as principais dificuldades associadas a estes programas estão relacionadas: aos custos de operação e manutenção dos programas e das UTCs; às falhas administrativas e operacionais das UTCs; à capacitação inadequada dos trabalhadores; à falta de conscientização ambiental da população; ao desenvolvimento de soluções isoladas (fora do contexto de gerenciamento integrado) e que desconsideram os fatores locais. Também foi feito um levantamento das características locais da Vila através de observações in loco, entrevistas e trabalhos de campo. Sobre a Vila do Abraão constatou-se que ainda são necessários entendimentos entre os gestores locais (subprefeitura, Parque Estadual da Ilha Grande), a população e a municipalidade em Angra dos Reis, assim como, faz-se necessário um estudo mais aprofundado sobre a operação da UTC, incluindo aí as parcerias necessárias (cooperativas, catadores, prefeitura, ONGs etc) e sobre um programa de educação ambiental, para a efetiva participação da comunidade local. Além das recomendações feitas aos gestores locais, são indicados estudos que podem complementar o presente trabalho

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O cálculo do equilíbrio de fases é um problema de grande importância em processos da engenharia, como, por exemplo, na separação por destilação, em processos de extração e simulação da recuperação terciária de petróleo, entre outros. Mas para resolvê-lo é aconselhável que se estude a priori a estabilidade termodinâmica do sistema, a qual consiste em determinar se uma dada mistura se apresenta em uma ou mais fases. Tal problema pode ser abordado como um problema de otimização, conhecido como a minimização da função distância do plano tangente à energia livre de Gibbs molar, onde modelos termodinâmicos, de natureza não convexa e não linear, são utilizados para descrevê-lo. Esse fato tem motivado um grande interesse em técnicas de otimização robustas e eficientes para a resolução de problemas relacionados com a termodinâmica do equilíbrio de fases. Como tem sido ressaltado na literatura, para proporcionar uma completa predição do equilíbrio de fases, faz-se necessário não apenas a determinação do minimizador global da função objetivo do teste de estabilidade, mas também a obtenção de todos os seus pontos estacionários. Assim, o desenvolvimento de metodologias para essa tarefa desafiadora tem se tornado uma nova área de pesquisa da otimização global aplicada à termodinâmica do equilíbrio, com interesses comuns na engenharia química e na engenharia do petróleo. O foco do presente trabalho é uma nova metodologia para resolver o problema do teste de estabilidade. Para isso, usa-se o chamado método do conjunto gerador para realizar buscas do tipo local em uma rede de pontos previamente gerada por buscas globais efetuadas com uma metaheurística populacional, no caso o método do enxame de partículas.Para se obter mais de um ponto estacionário, minimizam-se funções de mérito polarizadas, cujos pólos são os pontos previamente encontrados. A metodologia proposta foi testada na análise de quatorze misturas polares previamente consideradas na literatura. Os resultados mostraram que o método proposto é robusto e eficiente a ponto de encontrar, além do minimizador global, todos os pontos estacionários apontados previamente na literatura, sendo também capaz de detectar, em duas misturas ternárias estudadas, pontos estacionários não obtidos pelo chamado método de análise intervalar, uma técnica confiável e muito difundida na literatura. A análise do teste de estabilidade pela simples utilização do método do enxame de partículas associado à técnica de polarização mencionada acima, para a obtenção de mais de um ponto estacionário (sem a busca local feita pelo método do conjunto gerador em uma dada rede de pontos), constitui outra metodologia para a resolução do problema de interesse. Essa utilização é uma novidade secundária deste trabalho. Tal metodologia simplificada exibiu também uma grande robustez, sendo capaz de encontrar todos os pontos estacionários pesquisados. No entanto, quando comparada com a abordagem mais geral proposta aqui, observou-se que tal simplificação pode, em alguns casos onde a função de mérito apresenta uma geometria mais complexa, consumir um tempo de máquina relativamente grande, dessa forma é menos eficiente.