965 resultados para Modelagem Computacional


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tese tem por objetivo investigar as trajetórias intelectuais de Anatol Rosenfeld e Otto Maria Carpeaux. Exilados no Brasil durante a década de 30 do século passado, em função do avanço do nazifascismo na Europa, o alemão Rosenfeld e o austríaco Carpeaux souberam reinventar suas existências na nova terra, transformando-se em dois dos maiores críticos literários do país. Além de examinar os itinerários percorridos por ambos os autores, esta tese terá como foco analisar a relação entre exílio e atividade intelectual, promovendo uma reflexão a respeito do lugar das cidades de Berlim e Viena na construção do arcabouço espiritual de Rosenfeld e Carpeaux. Este estudo também tratará das suas primeiras produções em solo brasileiro, bem como da recepção que obtiveram de seus anfitriões, delineando, assim, os contornos de uma complexa atmosfera intelectual marcada por uma espécie de cordialidade literária. Como último objetivo, esta tese debaterá o processo de modelagem do self por meio do qual ambos os críticos conseguiram aprimorar a própria individualidade, tornando-se, enfim, figuras cuja memória deve ser recuperada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os fatores que explicam a distribuição observada em plantas e animais é uma pergunta que intriga naturalistas, biogeógrafos e ecólogos há mais de um século. Ainda nos primórdios da disciplina de ecologia, as tolerâncias ambientais já haviam sido apontadas como as grandes responsáveis pelo padrão observado da distribuição dos seres vivos, o que mais tarde levou à concepção de nicho ecológico das espécies. Nos últimos anos, o estudo das distribuições dos organismos ganhou grande impulso e destaque na literatura. O motivo foi a maior disponibilidade de catálogos de presença de espécies, o desenvolvimento de bancos de variáveis ambientais de todo o planeta e de ferramentas computacionais capazes de projetar mapas de distribuição potencial de um dado organismo. Estes instrumentos, coletivamente chamados de Modelos de Distribuição de Espécies (MDEs) têm sido desde então amplamente utilizados em estudos de diferentes escopos. Um deles é a avaliação de potenciais áreas suscetíveis à invasão de organismos exóticos. Este estudo tem, portanto, o objetivo de compreender, através de MDEs, os fatores subjacentes à distribuição de duas espécies de corais escleractíneos invasores nativos do Oceano Pacífico e ambas invasoras bem sucedidas de diversas partes do Oceano Atlântico, destacadamente o litoral fluminense. Os resultados mostraram que os modelos preditivos da espécie Tubastraea coccinea (LESSON, 1829), cosmopolita amplamente difundida na sua região nativa pelo Indo- Pacífico demonstraram de maneira satisfatória suas áreas de distribuição nas áreas invadidas do Atlântico. Sua distribuição está basicamente associada a regiões com alta disponibilidade de calcita e baixa produtividade fitoplanctônica. Por outro lado, a aplicação de MDEs foi incapaz de predizer a distribuição de T. tagusensis (WELLS,1982) no Atlântico. Essta espécie, ao contrário de sua congênere, tem distribuição bastante restrita em sua região nativa, o arquipélago de Galápagos. Através de análises posteriores foi possível constatar a mudança no nicho observado durante o processo de invasão. Finalmente, o sucesso preditivo para T. coccinea e o fracasso dos modelos para T. tagusensis levantam importantes questões sobre quais os aspectos ecológicos das espécies são mais favoráveis à aplicação de MDEs. Adicionalmente, lança importantes ressalvas na utilização recentemente tão difundida destas ferramentas como forma de previsão de invasões biológicas e em estudos de efeitos de alterações climáticas sobre a distribuição das espécies.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

efeitos são frequentemente observados na morbidade e mortalidade por doenças respiratórias e cardiovasculares, câncer de pulmão, diminuição da função respiratória, absenteísmo escolar e problemas relacionados com a gravidez. Estudos também sugerem que os grupos mais suscetíveis são as crianças e os idosos. Esta tese apresenta estudos sobre o efeito da poluição do ar na saúde na saúde na cidade do Rio de Janeiro e aborda aspectos metodológicos sobre a análise de dados e imputação de dados faltantes em séries temporais epidemiológicas. A análise de séries temporais foi usada para estimar o efeito da poluição do ar na mortalidade de pessoas idosas por câncer de pulmão com dados dos anos 2000 e 2001. Este estudo teve como objetivo avaliar se a poluição do ar está associada com antecipação de óbitos de pessoas que já fazem parte de uma população de risco. Outro estudo foi realizado para avaliar o efeito da poluição do ar no baixo peso ao nascer de nascimentos a termo. O desenho deste estudo foi o de corte transversal usando os dados disponíveis no ano de 2002. Em ambos os estudos foram estimados efeitos moderados da poluição do ar. Aspectos metodológicos dos estudos epidemiológicos da poluição do ar na saúde também são abordados na tese. Um método para imputação de dados faltantes é proposto e implementado numa biblioteca para o aplicativo R. A metodologia de imputação é avaliada e comparada com outros métodos frequentemente usados para imputação de séries temporais de concentrações de poluentes atmosféricos por meio de técnicas de simulação. O método proposto apresentou desempenho superior aos tradicionalmente utilizados. Também é realizada uma breve revisão da metodologia usada nos estudos de séries temporais sobre os efeitos da poluição do ar na saúde. Os tópicos abordados na revisão estão implementados numa biblioteca para a análise de dados de séries temporais epidemiológicas no aplicativo estatístico R. O uso da biblioteca é exemplificado com dados de internações hospitalares de crianças por doenças respiratórias no Rio de Janeiro. Os estudos de cunho metodológico foram desenvolvidos no âmbito do estudo multicêntrico para avaliação dos efeitos da poluição do ar na América Latina o Projeto ESCALA.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho trata do escoamento bifásico em meios porosos heterogêneos de natureza fractal, onde os fluidos são considerados imiscíveis. Os meios porosos são modelados pela equação de Kozeny-Carman Generalizada (KCG), a qual relaciona a porosidade com a permeabilidade do meio através de uma nova lei de potência. Esta equação proposta por nós é capaz de generalizar diferentes modelos existentes na literatura e, portanto, é de uso mais geral. O simulador numérico desenvolvido aqui emprega métodos de diferenças finitas. A evolução temporal é baseada em um esquema de separação de operadores que segue a estratégia clássica chamada de IMPES. Assim, o campo de pressão é calculado implicitamente, enquanto que a equação da saturação da fase molhante é resolvida explicitamente em cada nível de tempo. O método de otimização denominado de DFSANE é utilizado para resolver a equação da pressão. Enfatizamos que o DFSANE nunca foi usado antes no contexto de simulação de reservatórios. Portanto, o seu uso aqui é sem precedentes. Para minimizar difusões numéricas, a equação da saturação é discretizada por um esquema do tipo "upwind", comumente empregado em simuladores numéricos para a recuperação de petróleo, o qual é resolvido explicitamente pelo método Runge-Kutta de quarta ordem. Os resultados das simulações são bastante satisfatórios. De fato, tais resultados mostram que o modelo KCG é capaz de gerar meios porosos heterogêneos, cujas características permitem a captura de fenômenos físicos que, geralmente, são de difícil acesso para muitos simuladores em diferenças finitas clássicas, como o chamado fenômeno de dedilhamento, que ocorre quando a razão de mobilidade (entre as fases fluidas) assume valores adversos. Em todas as simulações apresentadas aqui, consideramos que o problema imiscível é bidimensional, sendo, portanto, o meio poroso caracterizado por campos de permeabilidade e de porosidade definidos em regiões Euclideanas. No entanto, a teoria abordada neste trabalho não impõe restrições para sua aplicação aos problemas tridimensionais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Somente no ano de 2011 foram adquiridos mais de 1.000TB de novos registros digitais de imagem advindos de Sensoriamento Remoto orbital. Tal gama de registros, que possui uma progressão geométrica crescente, é adicionada, anualmente, a incrível e extraordinária massa de dados de imagens orbitais já existentes da superfície da Terra (adquiridos desde a década de 70 do século passado). Esta quantidade maciça de registros, onde a grande maioria sequer foi processada, requer ferramentas computacionais que permitam o reconhecimento automático de padrões de imagem desejados, de modo a permitir a extração dos objetos geográficos e de alvos de interesse, de forma mais rápida e concisa. A proposta de tal reconhecimento ser realizado automaticamente por meio da integração de técnicas de Análise Espectral e de Inteligência Computacional com base no Conhecimento adquirido por especialista em imagem foi implementada na forma de um integrador com base nas técnicas de Redes Neurais Computacionais (ou Artificiais) (através do Mapa de Características Auto- Organizáveis de Kohonen SOFM) e de Lógica Difusa ou Fuzzy (através de Mamdani). Estas foram aplicadas às assinaturas espectrais de cada padrão de interesse, formadas pelos níveis de quantização ou níveis de cinza do respectivo padrão em cada uma das bandas espectrais, de forma que a classificação dos padrões irá depender, de forma indissociável, da correlação das assinaturas espectrais nas seis bandas do sensor, tal qual o trabalho dos especialistas em imagens. Foram utilizadas as bandas 1 a 5 e 7 do satélite LANDSAT-5 para a determinação de cinco classes/alvos de interesse da cobertura e ocupação terrestre em três recortes da área-teste, situados no Estado do Rio de Janeiro (Guaratiba, Mangaratiba e Magé) nesta integração, com confrontação dos resultados obtidos com aqueles derivados da interpretação da especialista em imagens, a qual foi corroborada através de verificação da verdade terrestre. Houve também a comparação dos resultados obtidos no integrador com dois sistemas computacionais comerciais (IDRISI Taiga e ENVI 4.8), no que tange a qualidade da classificação (índice Kappa) e tempo de resposta. O integrador, com classificações híbridas (supervisionadas e não supervisionadas) em sua implementação, provou ser eficaz no reconhecimento automático (não supervisionado) de padrões multiespectrais e no aprendizado destes padrões, pois para cada uma das entradas dos recortes da área-teste, menor foi o aprendizado necessário para sua classificação alcançar um acerto médio final de 87%, frente às classificações da especialista em imagem. A sua eficácia também foi comprovada frente aos sistemas computacionais testados, com índice Kappa médio de 0,86.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Diversos pesquisadores têm estudado o comportamento e o emprego de aduelas de concreto, que constituem as vigas segmentadas em sistemas estruturais, de maneira especial pontes e viadutos. Por esta razão, inúmeros trabalhos têm sido publicados nos últimos anos respaldados por testes experimentais e análises numéricas. O comportamento destas vigas contrasta com as clássicas vigas monolíticas em diversos aspectos, pois, a estrutura é composta de partes de elementos de concreto pré-moldado que, após serem posicionados no local definitivo, são protendidos. A protensão pode ser aderente ou não aderente. A principal vantagem deste sistema de construção é a rapidez e o alto controle de qualidade, por isso é largamente utilizado, havendo uma demanda de estudo de previsão do seu real comportamento No presente trabalho apresenta-se uma modelagem numérica via elementos finitos, para simular o comportamento de vigas compostas por aduelas justapostas sem material ligante entre as juntas. A protensão aplicada é aderente e a análise considera a não linearidade da região da junta. Assim sendo, o objetivo desta investigação é dar uma contribuição ao estudo do comportamento estrutural estático de vigas segmentadas, atentando para o comportamento das juntas, utilizando um programa comercial. Para o modelo são empregadas técnicas usuais de discretização, via método dos elementos finitos (MEF), por meio do programa de elementos finitos SAP2000[93]. O modelo proposto é constituído de elementos de placa próprios para concreto para representar a viga, a protensão é introduzida por meio de barras bidimensionais que transferem as tensões ao longo de seu comprimento e as juntas são implementadas utilizando elementos de contato. A analise é bidimensional e considera os efeitos das perdas de protensão. Este trabalho de pesquisa objetiva também o estudo de elementos de contato especialmente as características de deformação para esta ferramenta computacional. A definição dos parâmetros para o modelo foi feita com base em dados experimentais disponíveis na literatura. O modelo numérico foi calibrado e confrontado com resultados experimentais obtidos em ensaios de laboratório.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As ligações desempenham um papel fundamental no comportamento global das estruturas de aço. Inúmeros trabalhos de pesquisa têm sido desenvolvidos para entender o comportamento real de uma ligação e sua influência na resistência global dos pórticos. Atualmente, a Norma Brasileira de estruturas de aço de edificações, NBR 8800, considera o comportamento das ligações entre duas situações extremas: rígidas, onde não ocorre nenhuma rotação entre os membros conectados, transferindo momento fletor, força cortante e força normal; ou flexíveis, caracterizadas pela liberdade de rotação entre os membros conectados, impedindo a transmissão de momento fletor. Outras normas de projeto de estruturas de aço, consideram que as ligações apresentam um comportamento intermediário, ou seja, semi-rigídas, que podem estar submetidas a uma combinação de momento fletor e esforço normal. Porém, mesmo com a combinação, estas normas não consideram a presença de esforço normal (tração e/ou compressão). Uma limitação empírica de 5% da resistência plástica da viga é a única condição imposta no Eurocode 3. Para o estudo da ligação semi-rigída será utilizada a filosofia do Método das Componentes, que verifica a resistência da ligação e sua classificação quanto à rigidez rotacional, desenvolvida através de modelos mecânicos (modelos de molas). O objetivo deste trabalho é descrever alguns resultados de caracterização de ligações viga-coluna com placa de extremidade ajustada à altura da viga obtidos através de um modelo de elementos finitos. Para tal, será realizada uma análise não-linear geométrica e de material. Esta análise possibilitará avaliar os principais parâmetros que influenciam no comportamento deste componente no que diz respeito a sua avaliação em termos de distribuição de tensões e deformações no modelo de forma global.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta uma modelagem matemática para o processo de aquecimento de um corpo exposto a uma fonte pontual de radiação térmica. O resultado original que permite a solução exata de uma equação diferencial parcial não linear a partir de uma seqüência de problemas lineares também é apresentado. Gráficos gerados com resultados obtidos pelo método de diferenças finitas ilustram a solução do problema proposto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Em 2005, a Agência Nacional de Saúde Suplementar (ANS) estabelece o padrão TISS (Troca de Informação na Saúde Suplementar), intercâmbio eletrônico obrigatório entre as operadoras de planos de saúde (cerca de 1500 registradas na ANS) e prestadores de serviços (cerca de 200 mil) sobre os eventos de assistência prestados aos beneficiários. O padrão TISS foi desenvolvido seguindo a estrutura do Comitê ISO/TC215 de padrões para informática em saúde e se divide em quatro partes: conteúdo e estrutura, que compreende a estrutura das guias em papel; representação de conceitos em saúde, que se refere às tabelas de domínio e vocabulários em saúde; comunicação, que contempla as mensagens eletrônicas; e segurança e privacidade, seguindo recomendação do Conselho Federal de Medicina (CFM). Para aprimorar sua metodologia de evolução, essa presente tese analisou o grau de interoperabilidade do padrão TISS segundo a norma ISO 20514 (ISO 20514, 2005) e a luz do modelo dual da Fundação openEHR, que propõe padrões abertos para arquitetura e estrutura do Registro Eletrônico de Saúde (RES). O modelo dual da Fundação openEHR é composto, no primeiro nível, por um modelo de referência genérico e, no segundo, por um modelo de arquétipos, onde se detalham os conceitos e atributos. Dois estudos foram realizados: o primeiro se refere a um conjunto de arquétipos demográficos elaborados como proposta de representação da informação demográfica em saúde, baseado no modelo de referência da Fundação openEHR. O segundo estudo propõe um modelo de referência genérico, como aprimoramento das especificações da Fundação openEHR, para representar o conceito de submissão de autorização e contas na saúde, assim como um conjunto de arquétipos. Por fim, uma nova arquitetura para construção do padrão TISS é proposta, tendo como base o modelo dual da Fundação openEHR e como horizonte a evolução para o RES centrado no paciente

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O Leito Móvel Simulado (LMS) é um processo de separação de compostos por adsorção muito eficiente, por trabalhar em um regime contínuo e também possuir fluxo contracorrente da fase sólida. Dentre as diversas aplicações, este processo tem se destacado na resolução de petroquímicos e principalmente na atualidade na separação de misturas racêmicas que são separações de um grau elevado de dificuldade. Neste trabalho foram propostas duas novas abordagens na modelagem do LMS, a abordagem Stepwise e a abordagem Front Velocity. Na modelagem Stepwise as colunas cromatográficas do LMS foram modeladas com uma abordagem discreta, onde cada uma delas teve seu domínio dividido em N células de mistura interligadas em série, e as concentrações dos compostos nas fases líquida e sólida foram simuladas usando duas cinéticas de transferência de massa distintas. Essa abordagem pressupõe que as interações decorrentes da transferência de massa entre as moléculas do composto nas suas fases líquida e sólida ocorram somente na superfície, de forma que com essa suposição pode-se admitir que o volume ocupado por cada molécula nas fases sólida e líquida é o mesmo, o que implica que o fator de residência pode ser considerado igual a constante de equilíbrio. Para descrever a transferência de massa que ocorre no processo cromatográfico a abordagem Front Velocity estabelece que a convecção é a fase dominante no transporte de soluto ao longo da coluna cromatográfica. O Front Velocity é um modelo discreto (etapas) em que a vazão determina o avanço da fase líquida ao longo da coluna. As etapas são: avanço da fase líquida e posterior transporte de massa entre as fases líquida e sólida, este último no mesmo intervalo de tempo. Desta forma, o fluxo volumétrico experimental é utilizado para a discretização dos volumes de controle que se deslocam ao longo da coluna porosa com a mesma velocidade da fase líquida. A transferência de massa foi representada por dois mecanismos cinéticos distintos, sem (tipo linear) e com capacidade máxima de adsorção (tipo Langmuir). Ambas as abordagens propostas foram estudadas e avaliadas mediante a comparação com dados experimentais de separação em LMS do anestésico cetamina e, posteriormente, com o fármaco Verapamil. Também foram comparados com as simulações do modelo de equilíbrio dispersivo para o caso da Cetamina, usado por Santos (2004), e para o caso do Verapamil (Perna 2013). Na etapa de caracterização da coluna cromatográfica as novas abordagens foram associadas à ferramenta inversa R2W de forma a determinar os parâmetros globais de transferência de massa apenas usando os tempos experimentais de residência de cada enantiômero na coluna de cromatografia líquida de alta eficiência (CLAE). Na segunda etapa os modelos cinéticos desenvolvidos nas abordagens foram aplicados nas colunas do LMS com os valores determinados na caracterização da coluna cromatográfica, para a simulação do processo de separação contínua. Os resultados das simulações mostram boa concordância entre as duas abordagens propostas e os experimentos de pulso para a caracterização da coluna na separação enantiomérica da cetamina ao longo do tempo. As simulações da separação em LMS, tanto do Verapamil quando da Cetamina apresentam uma discrepância com os dados experimentais nos primeiros ciclos, entretanto após esses ciclos iniciais a correlação entre os dados experimentais e as simulações. Para o caso da separação da cetamina (Santos, 2004), a qual a concentração da alimentação era relativamente baixa, os modelos foram capazes de predizer o processo de separação com as cinéticas Linear e Langmuir. No caso da separação do Verapamil (Perna, 2013), onde a concentração da alimentação é relativamente alta, somente a cinética de Langmuir representou o processo, devido a cinética Linear não representar a saturação das colunas cromatográficas. De acordo como o estudo conduzido ambas as abordagens propostas mostraram-se ferramentas com potencial na predição do comportamento cromatográfico de uma amostra em um experimento de pulso, assim como na simulação da separação de um composto no LMS, apesar das pequenas discrepâncias apresentadas nos primeiros ciclos de trabalho do LMS. Além disso, podem ser facilmente implementadas e aplicadas na análise do processo, pois requer um baixo número de parâmetros e são constituídas de equações diferenciais ordinárias.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A modelagem matemática e computacional é uma ferramenta que tem sido bastante utilizada no campo da Biologia e das Ciências Biomédicas. Nos dias de hoje, uma quantidade significativa de dados experimentais nessa área pode ser encontrada na literatura, tornando possível o desenvolvimento de modelos que combinem a experimentação e hipóteses teóricas. O objetivo do presente projeto é implementar um modelo matemático de transmissão sináptica conectando neurônios em um circuito de descargas repetitivas ou reverberativo, a fim de investigar o seu comportamento diante de variações paramétricas. Através de simulações computacionais, utilizando um programa desenvolvido em linguagem C++, pretende-se utilizá-lo para simular um circuito de memória imediata. Afora o considerável avanço da Neurofisiologia e Neurociência computacional no sentido do entendimento das características fisiológicas e comportamentais das habilidades do Sistema Nervoso Central, muitos mecanismos neuronais ainda permanecem completamente obscuros. Ainda não se conhece definitivamente o mecanismo pelo qual o cérebro adquire, armazena e evoca as informações. Porém, o postulado de Hebb referente às redes reverberantes, onde a idéia de que redes de reverberação facilitariam a associação de dados coincidentes entre informações sensoriais, temporalmente divergentes, tem sido aceito para explicar a formação de memória imediata (Johnson et al., 2009). Assim, com base no postulado de Hebb, os resultados observados no modelo neuromatemático-computacional adotado possuem características de um circuito de memória imediata.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Uma dedução dos critérios de multicriticalidade para o cálculo de pontos críticos de qualquer ordem representa a formalização de ideias utilizadas para calcular pontos críticos e tricríticos e ainda amplia tais ideias. De posse desta dedução pode-se compreender os critérios de tricriticalidade e, com isso, através de uma abordagem via problema de otimização global pode-se fazer o cálculo de pontos tricríticos utilizando um método numérico adequado de otimização global. Para evitar um excesso de custo computacional com rotinas numéricas utilizou-se aproximações na forma de diferenças finitas dos termos que compõem a função objetivo. Para simular a relação P v - T optou-se pela equação de estado cúbica de Peng-Robinson e pela regra clássica de fluidos de van der Vaals, para modelagem do problema também se calculou os tensores de ordem 2, 3, 4 e 5 da função do teste de estabilidade. Os resultados obtidos foram comparados com dados experimentais e por resultados obtidos com outros autores que utilizaram métodos numéricos, equação de estado ou abordagem diferente das utilizadas neste trabalho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação apresenta um novo modelo criado para a previsão do valor da tensão superficial de misturas de hidrocarbonetos. Pode ser utilizado na forma preditiva ou correlativa. Este modelo foi baseado no modelo preditivo para soluções ideais de HildebrandScott (1950) e no modelo correlativo de JouybanAcree (2004). Outras regras de mistura foram avaliadas e comparadas com o modelo proposto, incluindo abordagens clássicas como de Sprow e Prausnitz, parácoro e estados correspondentes. Foram avaliados os desempenhos dos modelos escolhidos na previsão e na correlação da tensão superficial de misturas de hidrocarbonetos em diferentes temperaturas que continham diferentes assimetrias na mistura, tanto em natureza química (e.g., parafínicos, naftênicos e aromáticos) quanto em tamanho de cadeia. No total foram empregados 773 dados experimentais. Dentre os modelos preditivos, o modelo proposto foi o de melhor desempenho. Para sistemas com comportamento próximo da idealidade, esse modelo apresentou desvios em relação aos dados experimentais compatíveis com o erro experimental. Todos os modelos correlativos estudados apresentaram desvios essencialmente da ordem do erro experimental. O modelo proposto é importante, pois é capaz de prever a tensão superficial de misturas binárias aproximadamente ideais de hidrocarbonetos com elevada acurácia, além de permitir a correlação eficiente dos dados de todas as misturas estudadas

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Uma rede de trocadores de calor pode ser definida como um grupo de trocadores de calor interligados com o objetivo de reduzir a necessidade de energia de um sistema, sendo largamente usada nas indústrias de processos. Entretanto, uma rede está sujeita à deposição, a qual causa um decréscimo na efetividade térmica dos trocadores. Este fenômeno é provocado pelo acúmulo de materiais indesejáveis sobre a superfície de troca térmica. Para compensar a redução de efetividade térmica causada pela deposição, torna-se necessário um aumento no consumo de utilidades. Isto eleva os custos de operação, assim como os custos de manutenção. Estima-se que os custos associados à deposição atinjam bilhões de dólares anualmente. Em face a este problema, vários trabalhos de pesquisa têm investigado métodos para prevenir a deposição e/ou gerenciar as operações em uma rede. Estudos envolvem desde a otimização de trocadores de calor individuais, simulação e monitoramento de redes, até a otimização da programação das paradas para limpeza de trocadores de calor em uma rede. O presente trabalho apresenta a proposição de um modelo para simulação de redes de trocadores de calor com aplicações no gerenciamento da deposição. Como conseqüência, foi desenvolvido um conjunto de códigos computacionais integrados, envolvendo a simulação estacionária de redes, a simulação pseudo-estacionária do comportamento de redes em relação à evolução da deposição, a estimação de parâmetros para diagnóstico do problema da deposição e a otimização operacional deste tipo de sistema. Com relação ao simulador estacionário, o modelo da rede foi formulado matricialmente e os balanços de massa e energia são resolvidos como sistemas de equações lineares. Do ponto de vista da otimização, o procedimento proposto redistribui as vazões, visando um melhor aproveitamento térmico dos trocadores da rede, como, por exemplo, buscando as vazões da rede que maximizem a temperatura da corrente de entrada no forno em unidades de destilação atmosférica de óleo cru. Os algoritmos foram implementados em alguns exemplos da literatura e em um problema de uma refinaria real. Os resultados foram promissores, o que sugere que a proposta deste trabalho pode vir a ser uma abordagem interessante para operações envolvendo redes de trocadores de calor

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com o passar do tempo, a população mundial vem se conscientizando mais sobre problemas ambientais. Isso fez surgir uma demanda por tecnologias novas que possam se encaixar no cenário de sustentabilidade. Instabilidades frequentes no cenário político-econômico global acabam por elevar o preço do barril do petróleo. Assim a indústria química começa a buscar por alternativas que tenham a mesma versatilidade do petróleo. Dentre as opções de combustíveis renováveis, destaca-se o bio-óleo de pirólise. Seu interesse em estudos científicos vem do fato de poder-se utilizar do rejeito de processos como matéria prima, não necessitando competir por espaço com a plantação de alimentos. Sua composição pode ser representada por ácidos e fenóis. Em especial destacamos o ácido acético e fenóis oxigenados como m-cresol, o-cresol, p-cresol e guaiacol por estarem presentes em grandes quantidades. Sua separação das frações menos polares do bio-óleo pode ser realizada por meio de extração com água que é um reagente abundante e de baixo custo. O conhecimento das propriedades desses componentes puros é amplamente disponível na literatura, porém dados de composições das fases corrosivas, como misturas ternárias de água-ácido acético-m-cresol/o-cresol/p-cresol/guaiacol nas temperaturas de (298,15, 310,65 e 323,15) K são escassos. Devido a isso, o uso de modelos termodinâmicos para simulação do comportamento desses sistemas torna-se interessante. Todavia, quando são testadas as capacidades dos modelos clássicos, como o UNIFAC e NRTL, percebe-se que os mesmos não conseguem reproduzir o comportamento da binodal dos componentes corrosivos. Sendo assim, essa dissertação investigou soluções para melhorar a descrição desses sistemas, assim como obteve dados experimentais para tais sistemas de misturas ternárias de água-ácido acético-m-cresol/o-cresol/p-cresol/guaiacol nas temperaturas de (298,15, 310,65 e 323,15) K; desenvolveu-se uma metodologia para estimar parâmetros do modelo NRTL a partir de dados de composição da binodal e verificou-se a possibilidade de utilizar o modelo UNIFAC para prever o comportamento de equilíbrio de fases. Como resultado foram obtidos 314 novos dados experimentais, obtiveram-se parâmetros para o modelo NRTL que conseguem reproduzir com acurácia a forma da binodal com a metodologia proposta e verificou-se a necessidade de aperfeiçoamento no estudo do modelo UNIFAC para otimizar sua utilização na previsão do comportamento dos sistemas estudados