944 resultados para Extração semi-automática
Resumo:
Este trabalho é dedicado ao estudo e à aplicação da mineração de regras de associação a fim de descobrir padrões de navegação no ambiente Web. As regras de associação são padrões descritivos que representam a probabilidade de um conjunto de itens aparecer em uma transação visto que outro conjunto está presente. Dentre as possibilidades de aplicação da mineração de dados na Web, a mineração do seu uso consiste na extração de regras e padrões que descrevam o perfil dos visitantes aos sites e o seu comportamento navegacional. Neste contexto, alguns trabalhos já foram propostos, contudo diversos pontos foram deixados em aberto por seus autores. O objetivo principal deste trabalho é a apresentação de um modelo para a extração de regras de associação aplicado ao uso da Web. Este modelo, denominado Access Miner, caracteriza-se por enfocar as etapas do processo de descoberta do conhecimento desde a obtenção dos dados até a apresentação das regras obtidas ao analista. Características específicas do domínio foram consideradas, como a estrutura do site, para o pósprocessamento das regras mineradas a fim de selecionar as potencialmente mais interessantes e reduzir a quantidade de regras a serem apreciadas. O projeto possibilitou a implementação de uma ferramenta para a automação das diversas etapas do processo, sendo consideradas, na sua construção, as características de interatividade e iteratividade, necessárias para a descoberta e consolidação do conhecimento. Finalmente, alguns resultados foram obtidos a partir da aplicação desta ferramenta em dois casos, de forma que o modelo proposto pôde ser validado.
Resumo:
Este trabalho visa desenvolver um modelo físico e matemático geral para os processos de extração sólido-líquido em fluxos contracorrente cruzados (CCC) que são utilizados na indústria de alimentos. Levam-se em consideração os processos principais (o transporte de massa entre as fases, difusão e convecção) envolvidos por todo o campo de extração, com uma abordagem bidimensional evolutiva, incluindo as zonas de carregamento, drenagem e as bandejas acumuladoras. O modelo matemático é formado por equações diferenciais parciais que determinam a alteração das concentrações nas fases poro e “bulk” em todo o campo de extração e equações diferenciais ordinárias (que refletem as evoluções das concentrações médias nas bandejas). As condições de contorno estabelecem as ligações entre os fluxos CCC da micela e matéria-prima e consideram, também, a influência das zonas de drenagem e carregamento. O algoritmo de resolução utiliza o método de linhas que transforma as equações diferenciais parciais em equações diferenciais ordinárias, que são resolvidas pelo método de Runge-Kutta. Na etapa de validação do modelo foram estabelecidos os parâmetros da malha e o passo de integração, a verificação do código com a lei de conservação da espécie e um único estado estacionário. Também foram realizadas a comparação com os dados experimentais coletados no extrator real e com o método de estágios ideais, a análise da influência de propriedades da matéria-prima nas características principais do modelo, e estabelecidos os dados iniciais do regime básico (regime de operação) Foram realizadas pesquisas numéricas para determinar: os regimes estacionário e transiente, a variação da constante de equilíbrio entre as fases, a variação do número de seções, a alteração da vazão de matéria-prima nas características de um extrator industrial e, também foram realizadas as simulações comparativas para diferentes tipos de matéria-prima (flocos laminados e flocos expandidos) usados amplamente na indústria. Além dessas pesquisas, o modelo também permite simular diferentes tipos de solventes. O estudo da capacidade de produção do extrator revelou que é necessário ter cuidado com o aumento da vazão da matéria-prima, pois um pequeno aumento desta pode causar grandes perdas de óleo tornando alto o custo da produção. Mesmo que ainda seja necessário abastecer o modelo com mais dados experimentais, principalmente da matéria-prima, os resultados obtidos estão em concordância com os fenômenos físico-químicos envolvidos no processo, com a lei de conservação de espécies químicas e com os resultados experimentais.
Resumo:
O presente trabalho apresenta o desenvolvimento de um estudo da extração de óleo vegetal em instalações industriais do tipo Rotocell. O extrator tem forma cilíndrica e possui um eixo principal no qual estão fixos vagões que transportam os sólidos através do extrator, e, abaixo desses existem reservatórios responsáveis pelo recebimento da micela. Acima dos vagões há seções de distribuição de micela que é despejada sobre os sólidos dos vagões, que extrai o óleo. Possui também seções de carregamento e drenagem. Um modelo físico-matemático e um programa para simular a operação do extrator foram desenvolvidos considerando os seguintes fenômenos: difusão de óleo pela micela; transferência de óleo entre as fases bulk e poro; variação da massa específica e viscosidade da micela; os processos nas seções de drenagem e de carregamento. Na forma final, o modelo acoplado apresenta-se em termos de redes neurais artificiais, que possibilita operar com tempos discretos e contínuos, permitindo a simulação numérica deste extrator industrial, o treinamento favorável da rede, sua identificação, e o acompanhamento em tempo real. Foram determinadas características da matéria-prima através de um trabalho experimental em laboratório. Através dos resultados obteve-se a validação do modelo por meios teóricos e experimentais Os resultados teóricos foram comparados com os dados experimentais e com cálculos feitos através do método de estágios ideais. As simulações numéricas revelam propriedades do campo de extração para o regime transiente com distribuição uniforme e regime transiente industrial, onde verifica-se que o modelo descreve corretamente o comportamento real do campo de percolação do extrator. Também foram realizadas simulações numéricas com o objetivo de avaliar as principais características do extrator em função da sua geometria e características da matéria-prima, variando a altura e o número de vagões do extrator verificou-se que é possível simular o comportamento do extrator para diferentes formas e tipo de qualidades da matéria-prima. Foram feitas simulações utilizando um solvente alternativo(álcool) e mudando parâmetros do extrator, onde observou-se que o solvente exige alterações na dimensão do extrator.
Resumo:
A grande quantidade de dados eletrônicos disponível atualmente nem sempre pode ser representada com modelos tradicionais, principalmente devido à ausência de esquema no momento da criação destes dados. Neste sentido, modelos semi-estruturados têm sido propostos; uma das abordagens utilizadas é XML, uma linguagem para troca e representação deste tipo de informação. Entretanto, consultar dados semi-estruturados pode demandar processos de extração com alto custo. Uma das alternativas para solucionar este problema é a definição de visões sobre estes dados, e a posterior materialização destas informações. O uso de visões materializadas para dados XML ainda é pouco explorado. Uma das abordagens que podem ser utilizadas é o uso de sistemas de gerenciamento de bancos de dados relacionais para o armazenamento das visões. Desse modo, informação semanticamente relacionada (informação acerca de um mesmo domínio, possivelmente representada em formatos diferentes) pode ser agrupada em uma única unidade lógica, facilitando o acesso a estes dados por parte do usuário, e introduzindo alguma estrutura nos dados semiestruturados. Dessa maneira, o usuário final submete consultas diretamente sobre a visão materializada, evitando extrações contínuas de dados nas fontes XML. A materialização de dados XML exige a definição de um repositório de dados para o armazenamento destas instâncias. Utilizando-se a abordagem relacional, é necessário definir um mecanismo para a geração do esquema lógico do banco de dados. Consultar os dados nas fontes XML exige a integração destas instâncias. Neste contexto, integrá-las significa identificar quais instâncias de dados representam o mesmo objeto do mundo real, bem como resolver ambigüidades de representação deste objeto. O problema de identificação de entidades em XML é mais complexo que em bases de dados estruturadas. Dados XML, como propostos originalmente, não carregam necessariamente a noção de chave primária ou identificador de objeto. Assim, é necessária a adoção de um mecanismo que faça a identificação das instâncias na integração destes dados. Além disso, à medida que as fontes de dados XML sofrem alterações, a visão materializada deve ser atualizada, a fim de manter-se consistente com as fontes de dados. A manutenção deve propagar as alterações feitas nos dados XML para a visão materializada. Reprocessar todo o conteúdo da visão materializada é, na maioria das vezes, muito caro. Assim, é desejável propagar as mudanças incrementalmente, ou seja, processar apenas as alterações necessárias. Neste sentido, o presente trabalho apresenta uma proposta de técnica para armazenamento de dados XML em um banco de dados relacional. A proposta utiliza ontologias para a geração do esquema lógico do banco de dados. O problema de integração de dados é mostrado. O foco principal do trabalho está na proposta de uma técnica de atribuição de identificadores a instâncias XML, baseada no uso de funções Skolem e no padrão XPath, proposto pelo W3C. Também é proposto um mecanismo para manutenção incremental deste banco, à medida que as fontes XML sofrem atualizações.
Resumo:
O câncer renal corresponde a aproximadamente 3% dos tumores malignos do adulto, sendo a terceira malignidade urológica mais comum. Os tratamentos sistêmicos disponíveis para pacientes portadores de carcinoma renal avançado são, via de regra, pouco eficazes e sem um impacto definido na sobrevida. Portanto, torna-se imperioso que novos agentes e/ou estratégias terapêuticas para esta enfermidade sejam desenvolvidas. O derivado das epipodolofilotoxinas, etoposide, tem sido utilizado com sucesso no tratamento de vários tipos de tumores sólidos e hematológicos. Este agente exerce a sua ação antitumoral através da inibição da enzima nuclear topoisomerase II. Estudos recentes demonstraram que o efeito citotóxico in vitro deste agente é bem mais pronunciado quando as linhagens tumorais são expostas à droga por um tempo mais prolongado. Isto vem sendo confirmado em estudos clínicos, nos quais foi documentado um aumento significativo no percentual de respostas tumorais objetivas em pacientes com câncer avançado tratados com etoposide em doses repetidas diárias de forma continuada, comparativamente a pacientes que receberam pulsos de doses altas da droga a intervalos mais longos. Infelizmente, estudos iniciais com etoposide não revelaram uma atividade antitumoral significativa em pacientes com câncer renal avançado. Por esta razão, os estudos preliminares explorando o potencial terapêutico de seu análogo teniposide nesta doença também não receberam a devida atenção na literatura. Entretanto, este análogo possui potenciais vantagens terapêuticas em relação ao etoposide, uma vez que apresenta um tempo de retenção intracelular mais prolongado em linhagens de tumores sólidos in vitro. Estas observações nos estimularam a reconsiderar o estudo do potencial citotóxico do teniposide em modelos experimentais de câncer renal avançado. Nesta dissertação, foram estudados vários protocolos de administração de teniposide em linhagens de câncer renal humano, uma vez que esta neoplasia carece de drogas ativas disponíveis no armamentário terapêutico. Foram utilizadas as linhagens celulares RXF-393, A-498 e TK-10, as quais foram incubadas com teniposide em concentrações pré-determinadas e tempos de incubação variáveis. Além disto, foram feitos experimentos em que protocolos de administração de teniposide como agente único foram comparados a protocolos em que o mesmo foi combinado com agentes que bloqueiam a ação da glicoproteína P, responsável pelo efluxo ativo da droga do interior da célula tumoral. Além disso, foram também estudados protocolos incluindo a associação de teniposide com agentes que interferem com a síntese do DNA. Para os estudos de avaliação de citotoxicidade dos agentes quimioterápicos, os mesmos foram pré-incubados por 24 h na ausência ou presença do inibidor da DNA polimerase α afidicolina glicinada (0,2 µM) ou do inibidor da ribonucleotídeo redutase hidroxiuréia (200 µM) e após incubados por diferentes tempos de exposição com diluições seriadas de teniposide. Os efeitos citotóxicos foram avaliados através do método colorimétrico com sulforodamina B (SRB). Os protocolos de exposição prolongada das células ao teniposide mostraram um aumento significativo na sua citotoxicidade nas linhagens RXF-393, A-498 e TK-10, sugerindo que a citotoxicidade do teniposide é dependente de tempo de administração. Neste sentido, uma maior taxa de dano no DNA foi observada nas células expostas ao teniposide por tempos de administração mais prolongados. Curiosamente, os diferentes tempos de exposição ao teniposide não influenciaram de forma clara na formação de complexos DNA-topoisomerase II, nem nas medidas da atividade desta enzima. O uso concomitante de agentes moduladores da glicoproteína P como o verapamil, a ciclosporina A e o tamoxifeno não produziu potencialização do efeito antiproliferativo do teniposide. Por sua vez, os tratamentos com agentes que interferem na síntese de DNA, como a afidicolina glicinada ou a hidroxiuréia, potencializaram a citotoxicidade do teniposide em todas as linhagens estudadas, seguindo as características intrínsecas de cada linhagem. Em conclusão, os resultados apresentados nesta dissertação sugerem que o teniposide apresenta um maior efeito citotóxico em protocolos de administração prolongada em combinação com agentes inibidores da síntese de DNA. Frente a estes resultados iniciais, o teniposide será testado nos protocolos de administração acima mencionados em um painel contendo um maior número de linhagens tumorais in vitro. Uma vez confirmadas as observações acima descritas, serão iniciados estudos em modelos tumorais in vivo. Estes estudos servirão de base nas decisões quanto à reavaliação clínica do teniposide em ensaios de fase I em pacientes com neoplasias avançadas refratárias.
Resumo:
No presente trabalho foram caracterizadas as frações de substâncias húmicas resultantes do processo de extração alcalina da turfa, utilizando hidróxido de potássio, tendo em vista sua utilização na composição de um fertilizante organo-mineral. As substâncias húmicas foram fracionadas em humina, substância húmica (humato e fulvato de potássio), ácido fúlvico, ácido húmico e ácido húmico purificado, não sendo possível realizar a purificação do ácido fúlvico. Foram avaliadas a presença e distribuição do potássio nestas frações, verificando-se que após a extração, 78% do potássio ficou agregado na fração substância húmica e 22% na fração humina. Após a separação da fração substância húmica em ácido húmico e ácido fúlvico observou-se que 7% e 93% do potássio, respectivamente, ficaram distribuídos nessas frações. Comparando-se a diferença de teores de potássio entre as frações de ácido húmico purificado e não purificado, e a quantidade de potássio encontrado na água da diálise verificou-se a eficiência da utilização do processo de diálise para a purificação das substâncias húmicas, bem como a adequabilidade da metodologia para a análise de potássio. Também foram determinadas nas frações a análise elementar; razão E4/E6, a qual confirmou a maior condensação aromática da fração ácido húmico; presença de grupos funcionais na estrutura das substâncias húmicas, verificado qualitativamente através de espectroscopia no infravermelho, e quantitativamente grupos carboxílicos, OH-fenólico e carbonila, responsáveis pela acidez dessas substâncias. Os resultados obtidos quanto à presença de grupos funcionais e razão E4/E6, confirmaram a existência do ácido húmico no extrato da turfa, porém ficou evidenciada ausência de ácido fúlvico ou sua presença em pequena quantidade no material extraído.
Resumo:
Resumo não disponível.
Resumo:
Uma das tecnologias que mais avançou nas últimas décadas, como uma alternativa para as tradicionais técnicas de extração de produtos naturais, é a técnica de Extração com Fluidos Supercríticos. A extração com fluidos supercríticos destacase entre os processos industriais de extração pela qualidade dos produtos obtidos e por não causar danos ambientais quando usa dióxido de carbono (CO2) no estado supercrítico como solvente. Este trabalho teve como objetivo a realização de experimentos de extração de óleos essenciais com dióxido de carbono no estado supercrítico de folhas de duas variedades da árvore Canforeira (Cinnamomum camphor Ness & Eberm.) conhecidas como Hon-sho e Ho-sho, a fim de determinar as melhores condições operacionais de processo. Os óleos essenciais obtidos destas plantas têm importância econômica devido aos seus principais componentes: linalol e cânfora. Os melhores parâmetros de extração obtidos, quando se consideram os rendimentos de óleo essencial, foram os seguintes: vazão de CO2 = 2 mL/min, temperatura = 50°C, pressão = 90 bar e diâmetro de partícula = 0,1 mm. Outro objetivo foi a obtenção das curvas de extração: Rendimento de óleo essencial versus Tempo de extração, adequando, a partir dos dados experimentais, alguns modelos matemáticos encontrados na literatura para descrever o comportamento destas extrações. Dos modelos estudados o que melhor se adequou à extração de óleos essenciais de folhas foi o modelo proposto por Reverchon (1996), o qual proporcionou uma boa reprodutibilidade dos dados experimentais, mostrandose eficiente na representação de extração com fluidos supercríticos de óleos essenciais de Hon-sho e Ho-sho a partir de suas folhas.
Resumo:
O presente trabalho implementa um método computacional semi-automático para obter medidas de estruturas cardíacas de fetos humanos através do processamento de imagens de ultra-som. Essas imagens são utilizadas na avaliação cardíaca pré-natal, permitindo que os médicos diagnostiquem problemas antes mesmo do nascimento. A dissertação é parte de um projeto desenvolvido no Instituto de Informática da Universidade Federal do Rio Grande do Sul, denominado SEGIME (Segmentação de Imagens Médicas). Neste projeto, está sendo desenvolvida uma ferramenta computacional para auxiliar na análise de exames ecocardiográficos fetais com o apoio da equipe de Cardiologia Fetal do Instituto de Cardiologia do Rio Grande do Sul. O processamento de cada imagem é realizado por etapas, divididas em: aquisição, pré-processamento, segmentação e obtenção das medidas. A aquisição das imagens é realizada por especialistas do Instituto de Cardiologia. No pré-processamento, é extraída a região de interesse para a obtenção das medidas e a imagem é filtrada para a extração do ruído característico das imagens de ultra-som. A segmentação das imagens é realizada através de redes neurais artificiais, sendo que a rede neural utilizada é conhecida como Mapa Auto-organizável de Kohonen. Ao final do processo de segmentação, a imagem está pronta para a obtenção das medidas. A técnica desenvolvida nesta dissertação para obtenção das medidas foi baseada nos exames realizados pelos especialistas na extração manual de medidas. Essa técnica consiste na análise da linha referente à estrutura de interesse onde serão detectadas as bordas. Para o início das medidas, é necessário que o usuário indique o ponto inicial sobre uma borda da estrutura. Depois de encontradas as bordas, através da análise da linha, a medida é definida pela soma dos pixels entre os dois pontos de bordas. Foram realizados testes com quatro estruturas cardíacas fetais: a espessura do septo interventricular, o diâmetro do ventrículo esquerdo, a excursão do septum primum para o interior do átrio esquerdo e o diâmetro do átrio esquerdo. Os resultados obtidos pelo método foram avaliados através da comparação com resultados de referência obtidos por especialistas. Nessa avaliação observou-se que a variação foi regular e dentro dos limites aceitáveis, normalmente obtida como variação entre especialistas. Desta forma, um médico não especializado em cardiologia fetal poderia usar esses resultados em um diagnóstico preliminar.
Resumo:
Nesta dissertação é realizado o estudo e caracterização do comportamento de uma Unidade de Extração de Butadieno. O objetivo deste estudo é a proposição de estratégias de controle para esta unidade que, respeitando as restrições e características do processo, permitam que sejam alcançadas as seguintes metas operacionais: elevação da carga processável, aumento do tempo de campanha, aumento da corrente de produto e diminuição das perdas de butadieno ao longo do processo. O estudo e proposição das estratégias de controle é feito de modo sistemático, seguindo uma metodologia na qual o aspecto fundamental é o entendimento do processo e a compreensão das relações causa e efeito entre as variáveis manipuladas, controladas (ou medidas) e distúrbios. A presença de reciclos mássicos e energéticos somados aos efeitos da destilação extrativa faz com que, muitas vezes, essa relação contrarie o que é esperado pelo senso comum. As informações utilizadas na proposição e classificação das estruturas são oriundas de estudos em modelos do processo construídos em simuladores comerciais (ASPEN Plus v10.1 e ASPEN Dynamics). Ao longo desses estudos, as características estacionárias e dinâmicas do processo foram elucidadas, permitindo com que fosse proposta uma estrutura com potencialidade de atingir os objetivos referidos acima. Como resultados importantes podem ser citados: a importância do conjunto de parâmetros binários na modelagem termodinâmica do processo, a detecção do efeito "SnowBall", relacionado com a forma como os níveis dos equipamentos e vazões das correntes são controladas em sistemas com reciclo, e a determinação do comportamento da composição de vinil acetileno no topo da 2º Coluna de Destilação Extrativa (componente chave de separação nesta coluna) em relação a quantidade de solvente. Conforme a maneira como a corrente de alimentação da coluna Recuperadora de Butadieno é operada (temperatura ou taxa de resfriamento constante), quando a vazão de solvente na 2º Coluna de Destilação Extrativa é modificada, pode ocorrer uma inversão de ganho na concentração deste componente.
Resumo:
O acesso integrado a informações provenientes de banco de dados autônomos e heterogêneos, localizadas em diferentes ambientes de hardware e software, vem sendo amplamente pesquisado pela comunidade de banco de dados, com diversas soluções propostas. A maioria delas baseia-se na comparação e na integração ou mapeamento dos esquemas conceituais dos bancos de dados participantes, implementados através de uma camada adicional de software, em um nível superior ao dos bancos de dados existentes. Inicialmente, as metodologias de acesso integrado eram limitadas às informações provenientes de banco de dados. Entretanto, com o crescimento das redes de computadores e, conseqüentemente, com a intensa utilização da Internet, novas fontes de informações passaram a ser utilizadas neste ambiente, tais como fontes de dados semi-estruturadas. Estender o acesso integrado também a esses tipos de informações tornou-se importante. Este trabalho tem como objetivo propor a utilização de um metamodelo XML como modelo de dados canônico, através do qual é possível obter a representação conceitual dos esquemas de exportação provenientes de bancos de dados relacionais, objeto-relacionais e documentos XML, permitindo, desta forma, o acesso integrado a fontes de dados estruturadas e semi-estruturadas, a partir de metodologias inicialmente voltadas à interoperabilidade de banco de dados heterogêneos. Além do metamodelo apresentado, este trabalho incluiu o desenvolvimento da ferramenta XML Integrator, cujo objetivo é fornecer ao usuário mecanismos de apoio ao processo conversão dos esquemas conceituais locais de fontes de dados heterogêneas para o Metamodelo XML, bem como de extração de um esquema conceitual correspondente a um documento XML ou a uma classe de documentos XML. Para isso, a ferramenta utiliza interfaces gráficas, que guiam o usuário através dos diversos passos, desde a seleção da fonte de dados a ser convertida, até a geração do esquema de exportação propriamente dito.
Resumo:
Neste trabalho se propõe um avanço para a Técnica Transformada Integral Generalizada, GITT. O problema transformado, usualmente resolvido por subrotinas numéricas, é aqui abordado analiticamente fazendo-se uso da Transformada de Laplace. Para exemplificar o uso associado destas duas transformadas integrais, resolvem-se dois problemas. Um de concentração de poluentes na atmosfera e outro de convecção forçada com escoamento laminar, entre placas planas paralelas, com desenvolvimento simultâneo dos perfis térmico e hidrodinâmico. O primeiro é difusivo, transiente e com coeficientes variáveis. Sua solução é obtida de forma totalmente analítica. Além de mostrar o uso da técnica, este exemplo apesar de ter coeficientes variáveis, é resolvido com o auxílio de um problema de autovalores associado com coeficientes constantes. No segundo, obtém-se a solução da Equação da Energia analiticamente. Já a Equação da Conservação do Momentum é linearizada e resolvida de forma iterativa. A solução de cada iteração é obtida analiticamente.
Resumo:
A World Wide Web em poucos anos de existência se tornou uma importante e essencial fonte de informação e a localização e recuperação de informações na Internet passou a ser um grande problema a ser resolvido. Isto porque a falta de padronização e estrutura adequada para representação dos dados, que é resultado da liberdade de criação e manipulação dos documentos, compromete a eficácia dos modelos de recuperação de informação tradicionais. Muitos modelos foram então desenvolvidos para melhorar o desempenho dos sistemas de recuperação de informação. Com o passar dos anos surge assim uma nova área de pesquisa a extração de dados da web que, ao contrário dos sistemas de recuperação, extrai informações dos documentos relevantes e não documentos relevantes de conjunto de documentos. Tais estudos viabilizaram a integração de informações de documentos distribuídos e heterogêneos, que foram baseados nos mesmos modelos aplicados a banco de dados distribuídos. Neste trabalho é apresentado um estudo que tem como objetivo materializar informações contidas em documentos HTML de modo que se possa melhorar o desempenho das consultas em relação ao tempo de execução quanto à qualidade dos resultados obtidos. Para isso são estudados o ambiente web e as características dos dados contidos neste ambiente, como por exemplo, a distribuição e a heterogeneidade, aspectos relacionados à maneira pela qual as informações estão disponibilizadas e como estas podem ser recuperadas e extraídas através de regras sintáticas. Finalizando o estudo são apresentados vários tipos de classificação para os modelos de integração de dados e é monstrado em detalhes um estudo de caso, que tem como objetivo demonstrar a aplicação das técnicas apresentadas ao longo desta pesquisa.
Resumo:
A síntese de redes de trocadores de calor foi muito bem estudada pela comunidade científica nos últimos trinta anos, porém, o desenvolvimento de métodos e a melhoria dos já existentes sempre foram o foco principal da grande maioria dos autores. São poucos os trabalhos que aplicam qualquer uma das metodologias a situações reais e discorrem sobre as dificuldades encontradas - provavelmente porque as empresas não têm interesse em tornar público os resultados obtidos. Este trabalho aplica a metodologia do ponto de estrangulamento na nova fábrica de farelo branco do Parque Industrial de Esteio e, portanto, pode servir como um guia prático aos profissionais que desejem fazer o mesmo em outras plantas industriais. Esta dissertação sintetiza duas redes de trocadores de calor para a fábrica de farelo branco de Esteio, levando em consideração as condições econômicas e os custos de equipamento e de montagem no Brasil. A primeira rede estabelecida é baseada em aproveitamentos térmicos utilizados pelos fabricantes e pelas empresas que dominam a tecnologia de extração de óleos vegetais, já a segunda rede sintetizada utiliza a metodologia do ponto de estrangulamento. Os dois resultados obtidos são bastante viáveis economicamente, sendo que a rede sintetizada pelo ponto de estrangulamento é mais econômica. O Valor Presente Líquido é utilizado como critério de cálculo de viabilidade das duas redes. Foi demonstrado que para a realidade brasileira este critério é mais adequado que o Custo Total Anualizado. A flexibilidade da rede produzida pelo método do ponto de estrangulamento foi avaliada de maneira preliminar por simulação e tabelas de sensibilidade. O resultado obtido é robusto na posta em marcha e quando a planta é submetida a variações no extrator - situações que produzem distúrbios importantes e freqüentes. A aplicação da metodologia do ponto de estrangulamento na integração energética da fábrica de farelo branco confirmou a simplicidade do método e a sua forte interação com o engenheiro de processos. O Rio Grande do Sul tem muito a ganhar se esta metodologia for disseminada nas universidades e nas empresas que compõe o parque industrial do estado.