19 resultados para Estimação

em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta um estudo teórico e numérico sobre os erros que ocorrem nos cálculos de gradientes em malhas não estruturadas constituídas pelo diagrama de Voronoi, malhas estas, formadas também pela triangulação de Delaunay. As malhas adotadas, no trabalho, foram as malhas cartesianas e as malhas triangulares, esta última é gerada pela divisão de um quadrado em dois ou quatro triângulos iguais. Para tal análise, adotamos a escolha de três metodologias distintas para o cálculo dos gradientes: método de Green Gauss, método do Mínimo Resíduo Quadrático e método da Média do Gradiente Projetado Corrigido. O texto se baseia em dois enfoques principais: mostrar que as equações de erros dadas pelos gradientes podem ser semelhantes, porém com sinais opostos, para pontos de cálculos em volumes vizinhos e que a ordem do erro das equações analíticas pode ser melhorada em malhas uniformes quando comparada as não uniformes, nos casos unidimensionais, e quando analisada na face de tais volumes vizinhos nos casos bidimensionais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação tem como objetivo estudar um método para estimar a velocidade de veículos ferroviários usando processamento de vídeo. O sistema proposto consiste na utilização de câmeras ao longo das vias férreas que permitam não só o monitoramento do tráfego ferroviário, mas cujo vídeo captado possa ser utilizado para a obtenção de estimativas para a velocidade instantânea dos trens que por ela trafegam. Tal sistema seria utilizado independentemente dos sistemas de controle já utilizados pela operadora do sistema ferroviário, permitindo que os controladores possam ter uma segunda análise no caso de falha da primeira, assim como um modelo que permita avaliar a velocidade instantânea do veículo ferroviário ao longo do percurso. Os algoritmos de rastreamento empregados para esse fim abordaram diferentes métodos. Confrontaram-se os resultados obtidos com os algoritmos propostos com os dados empíricos de forma a determinar aquele com melhor resposta dada as características do sistema. O algoritmo que apresentou os melhores resultados emprega um único bloco de referência para todos os quadros comparados. A métrica de similaridade responsável por determinar quais blocos são mais ou menos similares dentro do universo de busca estipulado é a soma de diferenças absolutas (SAD, Sum of Absolute Differences). O tempo de processamento requerido por cada um dos métodos de rastreamento estudados também foi considerado nas avaliações de resultados apresentadas. Uma comparação realizada entre as velocidades coletadas e aquelas informadas pelo sistema de controle mostraram que os resultados obtidos com o sistema atual, utilizando a sinalização apenas por circuito de via apresenta resultados pouco confiáveis com erros bastante significativos. Os resultados obtidos com o sistema proposto apresentaram erros menores quando comparados àqueles obtidos pelo sistema vigente, apresentando-se assim como uma solução viável e de baixo custo quando comparada às técnicas atualmente empregadas para a medida de velocidade de trens.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O protótipo de uma interface gráfica para análise de imagens SAR (radar de abertura sintética - da sigla em inglês (Synthetic Aperture Radar) vem sendo desenvolvido e aperfeiçoado. Em seu estágio atual, a ferramenta é capaz de extrair o espectro direcional de ondas e o campo de ventos de imagens ERS 1&2. Dentre as diversas abordagens empregadas no desenvolvimento do protótipo, pode-se citar a avaliação da metodologia atualmente utilizada na interpretação das imagens. Neste sentido, é apresentada uma proposta de geração de imagens SAR sintéticas, de forma a viabilizar a avaliação do método de extração de parâmetros meteo-oceanográficos a partir do acoplamento do simulador de imagens com o interpretador utilizado no protótipo. Uma comparação detalhada entre os valores empregados para simulação e os resultados sacados da interface torna possível identificar possíveis deficiências e indicar aperfeiçoamentos ao método. Desta forma, o presente trabalho, além de discutir o protótipo para análise de imagens SAR, apresenta o desenvolvimento do acoplamento do simulador de imagens. Os resultados obtidos indicam que o acoplamento atingiu parcialmente seu objetivo apresentando bons resultados na interpretação das direções. Porém, ainda há algumas questões a serem avaliadas para a obtenção de resultados mais consistentes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tese tem por objetivo propor uma metodologia para recuperação de perfis verticais de temperatura na atmosfera com nuvens a partir de medidas de radiância feitas por satélite, usando redes neurais artificiais. Perfis verticais de temperatura são importantes condições iniciais para modelos de previsão de tempo, e são usualmente obtidos a partir de medidas de radiâncias feitas por satélites na faixa do infravermelho. No entanto, quando estas medidas são feitas na presença de nuvens, não é possível, com as técnicas atuais, efetuar a recuperação deste perfil. É uma perda significativa de informação, pois, em média, 20% dos pixels das imagens acusam presença de nuvens. Nesta tese, este problema é resolvido como um problema inverso em dois passos: o primeiro passo consiste na determinação da radiância que atinge a base da nuvem a partir da radiância medida pelos satélites; o segundo passo consiste na determinação do perfil vertical de temperaturas a partir da informação de radiância fornecida pelo primeiro passo. São apresentadas reconstruções do perfil de temperatura para quatro casos testes. Os resultados obtidos mostram que a metodologia adotada produz resultados satisfatórios e tem grande potencial de uso, permitindo incorporar informações sobre uma região mais ampla do globo e, consequentemente, melhorar os modelos de previsão do tempo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A estimação de parâmetros cinéticos em processos químicos e cromatográficos utilizando técnicas numéricas assistidas por computadores tem conduzido para melhoria da eficiência e o favorecimento da compreensão das fenomenologias envolvidas nos mesmos. Na primeira parte deste trabalho será realizada a modelagem computacional do processo de produção de biodiesel via esterificação, sendo que, o método de otimização estocástica Random Restricted Window (R2W) será correlacionado com os dados experimentais da produção de biodiesel a partir da esterificação do ácido láurico com etanol anidro na presença do catalisador ácido nióbico (Nb2O5). Na segunda parte do mesmo será realizada a modelagem computacional do processo de cromatografia de adsorção (batch process) onde serão correlacionados os dados provenientes dos modelos cinéticos de HASHIM, CHASE e IKM2 com os dados experimentais da adsorção de amoxicilina com quitosana, e também serão correlacionados os dados experimentais da adsorção de Bovine Serum Albumin (BSA) com Streamline DEAE com os dados provenientes de uma nova aplicação do método R2W mediante a implementação de um modelo cinético reversível. Ademais, as constantes cinéticas para cada processo supracitado serão estimadas levando em consideração o valor mínimo da função resíduos quadrados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os animais de estimação podem ser fonte de infecções, principalmente para seres humanos imunocomprometidos, em especial, pacientes portadores do vírus HIV. Considerando que o contato com animais pode prover benefícios emocionais, profissionais da área da saúde, em particular médicos e médicos veterinários, devem estar conscientes do papel potencial destes animais na transmissão de doenças de forma a preconizar medidas profiláticas para que esta transmissão não ocorra. As circunstâncias que favorecem a transmissão de doenças a partir dos animais de estimação ainda não são totalmente conhecidas, principalmente na realidade brasileira. Faltam estudos com o objetivo de investigar o risco de doenças de origem zoonótica decorrentes do contato com estes animais, hoje também chamados de animais pet. Ademais, ressente-se da falta de um instrumento devidamente elaborado e validado com a finalidade de captar as informações necessárias para a realização de estudos deste tipo ou mesmo para servir como ferramenta de rastreio de situações de vulnerabilidade de pacientes imunodeprimidos com vistas ao aconselhamento sobre medidas de prevenção. Desta maneira, o objetivo deste estudo é elaborar um instrumento para averiguar a vulnerabilidade de pacientes imunodeprimidos a infecções zoonóticas a partir de animais de estimação. Inicialmente, foram mapeados os animais de estimação mais encontrados no ambiente doméstico e as principais infecções que podem ser transmitidas a partir deles. Selecionaram-se, então, os possíveis mecanismos de transmissão a serem abordados. Dentre as espécies de animais de estimação elencadas, os cães, gatos, aves, répteis e os pequenos roedores foram os selecionados para a confecção deste instrumento. As infecções selecionadas foram: Salmonelose; Criptosporidíase; Giardíase; Dermatofitoses, Esporotricose, Bartonelose; Ancilostomíase; Toxocaríase; Psitacose; Toxoplasmose; Escabiose; Campilobacteriose; Criptococose e Histoplasmose. Considerando as diferentes formas de transmissão de cada infecção foram identificados os possíveis atos e comportamentos no contato com animais de estimação, bem como características destes animais, que poderiam aumentar a probabilidade de transmissão. O instrumento desenvolvido foi composto de uma primeira parte abarcando os critérios de elegibilidade, e de outra envolvendo o escopo principal do instrumento. Como as características de contato e as infecções variam de acordo com a espécie de animal, o instrumento abordou cada um dos cinco grupos de animais separadamente. O instrumento aqui proposto concerne à etapa inicial de um processo de desenvolvimento formal para utilização em futuras pesquisas sobre o papel dos animais de estimação na transmissão de infecções para pacientes imunodeprimidos. Estudos que explorem a confiabilidade e validade do instrumento proposto, assim como sua aceitabilidade, são necessários antes que seu uso seja recomendado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O comportamento de fases para sistemas binários com um hidrocarboneto leve e um pesado é muito importante tanto para o projeto real de um processo quanto para o desenvolvimento de modelos teóricos. Para atender a crescente demanda por informação experimental de equilíbrio de fases a altas pressões, o objetivo deste estudo é obter uma metodologia que substitua parcialmente ou maximize a pouca informação experimental disponível. Para isto propõe-se a modelagem do equilíbrio de fases em misturas de hidrocarboneto leve com um pesado, sem o conhecimento da estrutura molecular do pesado, inferindo-se os parâmetros do modelo a partir da modelagem de dados de ponto de bolha obtidos na literatura. Esta metodologia implica não só na descrição do equilíbrio de fases de um sistema como na estimação das propriedades críticas do pesado, de difícil obtenção devido ao craqueamento destes a altas temperaturas. Neste contexto, este estudo apresenta uma estratégia que estima indiretamente as propriedades críticas dos compostos pesados. Para isto, foram correlacionados dados experimentais de ponto de bolha de misturas binárias contendo um hidrocarboneto leve e um pesado, usando-se dois modelos: o de Peng-Robinson e o TPT1M (Teoria da Polimerização Termodinâmica de primeira ordem de Wertheim modificada). Os parâmetros ajustados com o modelo de Peng-Robinson correspondem diretamente às propriedades críticas do composto pesado, enquanto os ajustados com o modelo TPT1M foram usados para obtê-las. Esta estratégia fornece parâmetros dependentes do modelo, porém permite o cálculo de outras propriedades termodinâmicas, como a extrapolação da temperatura dos dados estudados. Além disso, acredita-se que a correlação dos parâmetros obtidos com as propriedades críticas disponíveis ajudará na caracterização de frações pesadas de composição desconhecida

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O petróleo é uma mistura complexa consistindo em um número muito grande de hidrocarbonetos. A descrição completa de todos os hidrocarbonetos existentes nessas misturas é inviável experimentalmente ou consome tempo excessivo em simulações computacionais. Por esta razão, uma abordagem molecular completa para cálculos de propriedades dessas misturas é substituído por uma abordagem pseudo-componente ou por correlações entre propriedades macroscópicas. Algumas dessas propriedades são utilizadas de acordo com a regulamentação de venda de combustíveis, e.g., para gasolina. Dependendo do esquema de refino e do óleo cru utilizado para produção desse combustível, uma larga variedade de valores é encontrada para as propriedades de correntes de processo que compõe o combustível final. A fim de planejar com precisão adequada a mistura dessas correntes, modelos devem estar disponíveis para o cálculo preciso das propriedades necessárias. Neste trabalho, oito séries de combustíveis brasileiros e duas séries de combustíveis estrangeiros foram analisadas: frações de gasolina, querosene, gasóleo e diesel. As propriedades analisadas para as frações são: número de octano, teor de aromáticos, teor de enxofre, índice de refração, densidade, ponto de fulgor, ponto de fluidez, ponto de congelamento, ponto de névoa, ponto de anilina, pressão de vapor Reid e número de cetano. Diversas correlações foram avaliadas e os melhores desempenhos foram destacados, permitindo uma estimação precisa das propriedades do combustível avaliado. Um processo de re-estimação de parâmetros foi aplicado e novos modelos foram ajustados em comparação com os dados experimentais. Esta estratégia permitiu uma estimativa mais exata das propriedades analisadas, sendo verificada por um aumento considerável no desempenho estatístico dos modelos. Além disso, foi apresentado o melhor modelo para cada propriedade e cada série

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Estudos multitemporais de dados de sensoriamento remoto dedicam-se ao mapeamento temático de uso da terra em diferentes instâncias de tempo com o objetivo de identificar as mudanças ocorridas em uma região em determinado período. Em sua maioria, os trabalhos de classificação automática supervisionada de imagens de sensoriamento remoto não utilizam um modelo de transformação temporal no processo de classificação. Pesquisas realizadas na última década abriram um importante precedente ao comprovarem que a utilização de um modelo de conhecimento sobre a dinâmica da região (modelo de transformação temporal), baseado em Cadeias de Markov Fuzzy (CMF), possibilita resultados superiores aos produzidos pelos classificadores supervisionados monotemporais. Desta forma, o presente trabalho enfoca um dos aspectos desta abordagem pouco investigados: a combinação de CMF de intervalos de tempo curtos para classificar imagens de períodos longos. A área de estudo utilizada nos experimentos é um remanescente florestal situado no município de Londrina-PR e que abrange todo o limite do Parque Estadual Mata dos Godoy. Como dados de entrada, são utilizadas cinco imagens do satélite Landsat 5 TM com intervalo temporal de cinco anos. De uma forma geral, verificou-se, a partir dos resultados experimentais, que o uso das Cadeias de Markov Fuzzy contribuiu significativamente para a melhoria do desempenho do processo de classificação automática em imagens orbitais multitemporais, quando comparado com uma classificação monotemporal. Ainda, pôde-se observar que as classificações com base em matrizes estimadas para períodos curtos sempre apresentaram resultados superiores aos das classificações com base em matrizes estimadas para períodos longos. Também, que a superioridade da estimação direta frente à extrapolação se reduz com o aumento da distância temporal. Os resultados do presente trabalho poderão servir de motivação para a criação de sistemas automáticos de classificação de imagens multitemporais. O potencial de sua aplicação se justifica pela aceleração do processo de monitoramento do uso e cobertura da terra, considerando a melhoria obtida frente a classificações supervisionadas tradicionais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese tem por objetivo propor uma estratégia de obtenção automática de parâmetros hidrodinâmicos e de transporte através da solução de problemas inversos. A obtenção dos parâmetros de um modelo físico representa um dos principais problemas em sua calibração, e isso se deve em grande parte à dificuldade na medição em campo desses parâmetros. Em particular na modelagem de rios e estuários, a altura da rugosidade e o coeficiente de difusão turbulenta representam dois dos parâmetros com maior dificuldade de medição. Nesta tese é apresentada uma técnica automatizada de estimação desses parâmetros através deum problema inverso aplicado a um modelo do estuário do rio Macaé, localizado no norte do Rio de Janeiro. Para este estudo foi utilizada a plataforma MOHID, desenvolvida na Universidade Técnica de Lisboa, e que tem tido ampla aplicação na simulação de corpos hídricos. Foi realizada uma análise de sensibilidade das respostas do modelo com relação aos parâmetros de interesse. Verificou-se que a salinidade é uma variável sensível a ambos parâmetros. O problema inverso foi então resolvido utilizando vários métodos de otimização através do acoplamento da plataforma MOHID a códigos de otimização implementados em Fortran. O acoplamento foi realizado de forma a não alterar o código fonte do MOHID, possibilitando a utilização da ferramenta computacional aqui desenvolvida em qualquer versão dessa plataforma, bem como a sua alteração para o uso com outros simuladores. Os testes realizados confirmam a eficiência da técnica e apontam as melhores abordagens para uma rápida e precisa estimação dos parâmetros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação apresenta um estudo da modelagem de experimentos aplicados a um processo industrial de tratamento térmico. A motivação deste trabalho surgiu diante das dificuldades associadas aos processos de recozimento industrial de aços do tipo baixa liga, na tentativa de encontrar temperaturas nas quais as durezas superficiais dos aços atingissem valores suficientemente baixos, adequados para etapas posteriores de fabricação, em especial a usinagem. Inicialmente forem realizados diversos experimentos com diferentes aços, onde a dureza superficial é obtida em função da temperatura de recozimento e dos teores de carbono e silício das amostras utilizadas. Em seguida propôs-se um modelo quadrático para modelar a dureza superficial como função dessas três variáveis. A estimação de parâmetros do modelo proposto foi realizada com o emprego do algoritmo Simulated Annealing, uma meta-heurística para otimização global que procura imitar o processo de recozimento de um material sólido. Finalmente, usando-se o modelo proposto, foi resolvido o chamado problema inverso, o qual consiste na estimação da temperatura de recozimento em função dos teores de carbono e silício e da dureza desejada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As instituições financeiras são obrigadas por acordos internacionais, como o Acordo de Basiléia, a avaliar o risco de mercado ao qual a instituição está propensa de forma a evitar possíveis contaminações de desastres financeiros em seu patrimônio. Com o intuito de capturar tais fenômenos, surge a necessidade de construir modelos que capturem com mais acurácia movimentos extremos das séries de retornos. O trabalho teve como principal objetivo aplicar a Teoria do Valor Extremo juntamente com Copulas na estimação de quantis extremos para o VaR. Ele utiliza técnicas de simulação de Monte Carlo, Teoria do Valor Extremo e Cópulas com distribuições gaussianas e t. Em contrapartida, as estimativas produzidas serão comparadas com as de um segundo modelo, chamado de simulação histórica de Monte Carlo filtrada, mais conhecida como filtered historical simulation (FHS). As técnicas serão aplicadas a um portfólio de ações de empresas brasileiras.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho procurou analisar o sistema produtivo da atividade leiteira em Minas Gerais, identificando a capacidade dos produtores em permanecer no negócio, a longo prazo, através da estimação da função custo translogarítmica. O estudo demonstrou que os produtores analisados ainda praticam altos custos por unidade produzida, sugerindo baixa eficiência dos estabelecimentos e falhas na administração do empreendimento. Os resultados econométricos revelam a possibilidade de ganhos de escala, no que se refere à alocação e melhor aproveitamento dos recursos, ou seja, as propriedades apresentam economias de escala. No entanto, retornos crescentes de escala não são compatíveis com a existência de mercados competitivos, sinalizando que os produtores enfrentam restrições geradas pelas imperfeições de mercado. O conhecimento dessas imperfeições é essencial à formulação de políticas econômicas e de organizações privadas que visem ao desenvolvimento econômico deste mercado, que atualmente é o sexto maior do mundo. Além disso, os resultados das elasticidades mostram que o produtor é mais sensível às variações de preços na mão-de-obra do que às variações nos demais fatores, reduzindo em maior proporção o uso do trabalho na produção, à medida que seu preço aumenta. Isto evidencia a principal característica regional da produção leiteira no país, que é o uso intensivo do fator trabalho. Também foi identificado que o os medicamentos, alimentos e energia, denominados no estudo de fator dispêndio, são os mais difíceis é o mais difícil de serem substituídos na produção, devido às particularidades no uso dos componentes deste insumo. Por fim, os valores positivos encontrados para as elasticidades parciais de substituição de Allen confirmam a substitutibilidade entre os fatores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um grande desafio da atualidade é a preservação dos recursos hídricos, bem como o correto manejo dos mesmos, frente à expansão das cidades e às atividades humanas. A qualidade de um corpo hídrico é usualmente avaliada através da análise de parâmetros biológicos, físicos e químicos. O comportamento de tais parâmetros pode convenientemente ser simulado através de modelos matemáticos e computacionais, que surgem assim como uma ferramenta bastante útil, por sua capacidade de geração de cenários que possam embasar, por exemplo, tomadas de decisão. Nesta tese são discutidas técnicas de estimação da localização e intensidade de uma fonte de contaminante conservativo, hipoteticamente lançado na região predominantemente fluvial de um estuário. O lançamento aqui considerado se dá de forma pontual e contínua e a região enfocada compreendeu o estuário do Rio Macaé, localizado na costa norte do Rio de Janeiro. O trabalho compreende a solução de um problema direto, que consiste no transporte bidimensional (integrado na vertical) desse contaminante hipotético, bem como a aplicação de técnicas de problemas inversos. Para a solução do transporte do contaminante, aqui modelada pela versão 2D horizontal da equação de advecção-difusão, foram utilizados como métodos de discretização o Método de Elementos Finitos e o Método de Diferenças Finitas. Para o problema hidrodinâmico foram utilizados dados de uma solução já desenvolvida para estuário do Rio Macaé. Analisada a malha de acordo com o método de discretização, foram definidas a geometria do estuário e os parâmetros hidrodinâmicos e de transporte. Para a estimação dos parâmetros propostos foi utilizada a técnica de problemas inversos, com o uso dos métodos Luus-Jaakola, Algoritmo de Colisão de Partículas e Otimização por Colônia de Formigas para a estimação da localização e do método Seção Áurea para a estimação do parâmetro de intensidade da fonte. Para a definição de uma fonte, com o objetivo de propor um cenário experimental idealizado e de coleta de dados de amostragem, foi realizada a análise de sensibilidade quanto aos parâmetros a serem estimados. Como os dados de amostragem de concentração foram sintéticos, o problema inverso foi resolvido utilizando-os com e sem ruído, esse introduzido de forma artificial e aleatória. Sem o uso de ruído, os três métodos mostraram-se igualmente eficientes, com uma estimação precisa em 95% das execuções. Já com o uso de dados de amostragem com ruídos de 5%, o método Luus-Jaakola mostrou-se mais eficiente em esforço e custo computacional, embora todos tenham estimado precisamente a fonte em 80% das execuções. Considerando os resultados alcançados neste trabalho tem-se que é possível estimar uma fonte de constituintes, quanto à sua localização e intensidade, através da técnica de problemas inversos. Além disso, os métodos aplicados mostraram-se eficientes na estimação de tais parâmetros, com estimações precisas para a maioria de suas execuções. Sendo assim, o estudo do comportamento de contaminantes, e principalmente da identificação de fontes externas, torna-se uma importante ferramenta para a gestão dos recursos hídricos, possibilitando, inclusive, a identificação de possíveis responsáveis por passivos ambientais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma rede de trocadores de calor pode ser definida como um grupo de trocadores de calor interligados com o objetivo de reduzir a necessidade de energia de um sistema, sendo largamente usada nas indústrias de processos. Entretanto, uma rede está sujeita à deposição, a qual causa um decréscimo na efetividade térmica dos trocadores. Este fenômeno é provocado pelo acúmulo de materiais indesejáveis sobre a superfície de troca térmica. Para compensar a redução de efetividade térmica causada pela deposição, torna-se necessário um aumento no consumo de utilidades. Isto eleva os custos de operação, assim como os custos de manutenção. Estima-se que os custos associados à deposição atinjam bilhões de dólares anualmente. Em face a este problema, vários trabalhos de pesquisa têm investigado métodos para prevenir a deposição e/ou gerenciar as operações em uma rede. Estudos envolvem desde a otimização de trocadores de calor individuais, simulação e monitoramento de redes, até a otimização da programação das paradas para limpeza de trocadores de calor em uma rede. O presente trabalho apresenta a proposição de um modelo para simulação de redes de trocadores de calor com aplicações no gerenciamento da deposição. Como conseqüência, foi desenvolvido um conjunto de códigos computacionais integrados, envolvendo a simulação estacionária de redes, a simulação pseudo-estacionária do comportamento de redes em relação à evolução da deposição, a estimação de parâmetros para diagnóstico do problema da deposição e a otimização operacional deste tipo de sistema. Com relação ao simulador estacionário, o modelo da rede foi formulado matricialmente e os balanços de massa e energia são resolvidos como sistemas de equações lineares. Do ponto de vista da otimização, o procedimento proposto redistribui as vazões, visando um melhor aproveitamento térmico dos trocadores da rede, como, por exemplo, buscando as vazões da rede que maximizem a temperatura da corrente de entrada no forno em unidades de destilação atmosférica de óleo cru. Os algoritmos foram implementados em alguns exemplos da literatura e em um problema de uma refinaria real. Os resultados foram promissores, o que sugere que a proposta deste trabalho pode vir a ser uma abordagem interessante para operações envolvendo redes de trocadores de calor