730 resultados para estimação viesada
Resumo:
The oscillations presents in control loops can cause damages in petrochemical industry. Canceling, or even preventing such oscillations, would save up to large amount of dollars. Studies have identified that one of the causes of these oscillations are the nonlinearities present on industrial process actuators. This study has the objective to develop a methodology for removal of the harmful effects of nonlinearities. Will be proposed an parameter estimation method to Hammerstein model, whose nonlinearity is represented by dead-zone or backlash. The estimated parameters will be used to construct inverse models of compensation. A simulated level system was used as a test platform. The valve that controls inflow has a nonlinearity. Results and describing function analysis show an improvement on system response
Resumo:
A necessidade de conhecer uma população impulsiona um processo de recolha e análise de informação. Usualmente é muito difícil ou impossível estudar a totalidade da população, daí a importância do estudo com recurso a amostras. Conceber um estudo por amostragem é um processo complexo, desde antes da recolha dos dados até a fase de análise dos mesmos. Na maior parte dos estudos utilizam-se combinações de vários métodos probabilísticos de amostragem para seleção de uma amostra, que se pretende representativa da população, denominado delineamento de amostragem complexo. O conhecimento dos erros de amostragem é necessário à correta interpretação dos resultados de inquéritos e à avaliação dos seus planos de amostragem. Em amostras complexas, têm sido usadas aproximações ajustadas à natureza complexa do plano da amostra para a estimação da variância, sendo as mais utilizadas: o método de linearização Taylor e as técnicas de reamostragem e replicação. O principal objetivo deste trabalho é avaliar o desempenho dos estimadores usuais da variância em amostras complexas. Inspirado num conjunto de dados reais foram geradas três populações com características distintas, das quais foram sorteadas amostras com diferentes delineamentos de amostragem, na expectativa de obter alguma indicação sobre em que situações se deve optar por cada um dos estimadores da variância. Com base nos resultados obtidos, podemos concluir que o desempenho dos estimadores da variância da média amostral de Taylor, Jacknife e Bootstrap varia com o tipo de delineamento e população. De um modo geral, o estimador de Bootstrap é o menos preciso e em delineamentos estratificados os estimadores de Taylor e Jackknife fornecem os mesmos resultados; Evaluation of variance estimation methods in complex samples ABSTRACT: The need to know a population drives a process of collecting and analyzing information. Usually is to hard or even impossible to study the whole population, hence the importance of sampling. Framing a study by sampling is a complex process, from before the data collection until the data analysis. Many studies have used combinations of various probabilistic sampling methods for selecting a representative sample of the population, calling it complex sampling design. Knowledge of sampling errors is essential for correct interpretation of the survey results and evaluation of the sampling plans. In complex samples to estimate the variance has been approaches adjusted to the complex nature of the sample plane. The most common are: the linearization method of Taylor and techniques of resampling and replication. The main objective of this study is to evaluate the performance of usual estimators of the variance in complex samples. Inspired on real data we will generate three populations with distinct characteristics. From this populations will be drawn samples using different sampling designs. In the end we intend to get some lights about in which situations we should opt for each one of the variance estimators. Our results show that the performance of the variance estimators of sample mean Taylor, Jacknife and Bootstrap varies with the design and population. In general, the Bootstrap estimator is less precise and in stratified design Taylor and Jackknife estimators provide the same results.
Modelos estocásticos de crescimento individual e desenvolvimento de software de estimação e previsão
Resumo:
Os modelos de crescimento individual são geralmente adaptações de modelos de crescimento de populações. Inicialmente estes modelos eram apenas determinísticos, isto é, não incorporavam as flutuações aleatórias do ambiente. Com o desenvolvimento da teoria do cálculo estocástico podemos adicionar um termo estocástico, que representa a aleatoriedade ambiental que influencia o processo em estudo. Actualmente, o estudo do crescimento individual em ambiente aleatório é cada vez mais importante, não apenas pela vertente financeira, mas também devido às suas aplicações nas áreas da saúde e da pecuária, entre outras. Problemas como o ajustamento de modelos de crescimento individual, estimação de parâmetros e previsão de tamanhos futuros são tratados neste trabalho. São apresentadas novas aplicações do modelo estocástico monomolecular generalizado e um novo software de aplicação deste e de outros modelos. ABSTRACT: Individual growth models are usually adaptations of growth population models. Initially these models were only deterministic, that is, they did not incorporate the random fluctuations of the environment. With the development of the theory of stochastic calculus, we can add a stochastic term that represents the random environmental influences in the process under study. Currently, the study of individual growth in a random environment is increasingly important, not only by the financial scope but also because of its applications in health care and livestock production, among others. Problems such as adjustment of an individual growth model, estimation of parameters and prediction of future sizes are treated in this work. New applications of the generalized stochastic monomolecular model and a new software applied to this and other models are presented.
Resumo:
O conforto acústico na habitação é essencial para permitir um repouso tranquilo e regenerativo. Este conforto é obtido principalmente pela redução do ruído e aumento do isolamento sonoro dos elementos de compartimentação. Para a qualificação deste conforto é necessário efetuar uma análise global do edifício, onde são considerados os fatores internos e externos à habitação, ou seja, considerando a acústica da envolvente (Vizinhança), do edifício (Edifício) e da fração (Habitação). Para este efeito foi produzido o “Método LNEC para avaliação e classificação da qualidade acústica de edifícios habitacionais”, o qual permite fazer uma avaliação global do conforto acústico na habitação. Este método inovador em Portugal origina uma Classe Acústica LNEC que permite representar com razoável fiabilidade o conforto acústico realmente sentido e a qualidade acústica da habitação. Este método pode ser aplicado a edifícios novos e a edifícios a reabilitar. De modo a permitir uma estimação dos custos médios necessários para transitar entre determinadas classes (e alcançar respetivo conforto acústico) é necessário possuir uma ferramenta de cálculo apropriada. Deste modo apresenta-se nesta comunicação uma ferramenta para estimar os custos de transição entre classes acústicas. Esta metodologia permite fazer escolhas mais fundamentadas nos processos de obtenção de determinado conforto acústico. Abstract The acoustic comfort in dwellings is essential to a peaceful and regenerative sleep. The achievement of this comfort is primarily obtained by reducing noise and increasing sound insulation of separating elements. To classify this comfort is necessary to conduct a comprehensive analysis of the habitation. This global analysis assesses the internal and external factors of the habitation, evaluating the acoustics of the environment (Vicinity), of the building (Building) and of the dwelling place (Lodging). Recently in Portugal was developed the “LNEC method for evaluation and acoustic quality classification of residential buildings” that allows an overall evaluation of the acoustic comfort in dwellings, resulting also in a “LNEC Acoustic Class” that portrays the real acoustic comfort sensed. Since this method can be applied to evaluate the acoustic comfort of new and of restored buildings, it is necessary a tool that gives an estimation of the needed investment to upgrade to a specific “LNEC Acoustic Class” (and achieve the respective acoustic comfort). In this communication is presented a tool that allows the estimation of that upgrade costs.
Resumo:
O comportamento de fases para sistemas binários com um hidrocarboneto leve e um pesado é muito importante tanto para o projeto real de um processo quanto para o desenvolvimento de modelos teóricos. Para atender a crescente demanda por informação experimental de equilíbrio de fases a altas pressões, o objetivo deste estudo é obter uma metodologia que substitua parcialmente ou maximize a pouca informação experimental disponível. Para isto propõe-se a modelagem do equilíbrio de fases em misturas de hidrocarboneto leve com um pesado, sem o conhecimento da estrutura molecular do pesado, inferindo-se os parâmetros do modelo a partir da modelagem de dados de ponto de bolha obtidos na literatura. Esta metodologia implica não só na descrição do equilíbrio de fases de um sistema como na estimação das propriedades críticas do pesado, de difícil obtenção devido ao craqueamento destes a altas temperaturas. Neste contexto, este estudo apresenta uma estratégia que estima indiretamente as propriedades críticas dos compostos pesados. Para isto, foram correlacionados dados experimentais de ponto de bolha de misturas binárias contendo um hidrocarboneto leve e um pesado, usando-se dois modelos: o de Peng-Robinson e o TPT1M (Teoria da Polimerização Termodinâmica de primeira ordem de Wertheim modificada). Os parâmetros ajustados com o modelo de Peng-Robinson correspondem diretamente às propriedades críticas do composto pesado, enquanto os ajustados com o modelo TPT1M foram usados para obtê-las. Esta estratégia fornece parâmetros dependentes do modelo, porém permite o cálculo de outras propriedades termodinâmicas, como a extrapolação da temperatura dos dados estudados. Além disso, acredita-se que a correlação dos parâmetros obtidos com as propriedades críticas disponíveis ajudará na caracterização de frações pesadas de composição desconhecida
Resumo:
O petróleo é uma mistura complexa consistindo em um número muito grande de hidrocarbonetos. A descrição completa de todos os hidrocarbonetos existentes nessas misturas é inviável experimentalmente ou consome tempo excessivo em simulações computacionais. Por esta razão, uma abordagem molecular completa para cálculos de propriedades dessas misturas é substituído por uma abordagem pseudo-componente ou por correlações entre propriedades macroscópicas. Algumas dessas propriedades são utilizadas de acordo com a regulamentação de venda de combustíveis, e.g., para gasolina. Dependendo do esquema de refino e do óleo cru utilizado para produção desse combustível, uma larga variedade de valores é encontrada para as propriedades de correntes de processo que compõe o combustível final. A fim de planejar com precisão adequada a mistura dessas correntes, modelos devem estar disponíveis para o cálculo preciso das propriedades necessárias. Neste trabalho, oito séries de combustíveis brasileiros e duas séries de combustíveis estrangeiros foram analisadas: frações de gasolina, querosene, gasóleo e diesel. As propriedades analisadas para as frações são: número de octano, teor de aromáticos, teor de enxofre, índice de refração, densidade, ponto de fulgor, ponto de fluidez, ponto de congelamento, ponto de névoa, ponto de anilina, pressão de vapor Reid e número de cetano. Diversas correlações foram avaliadas e os melhores desempenhos foram destacados, permitindo uma estimação precisa das propriedades do combustível avaliado. Um processo de re-estimação de parâmetros foi aplicado e novos modelos foram ajustados em comparação com os dados experimentais. Esta estratégia permitiu uma estimativa mais exata das propriedades analisadas, sendo verificada por um aumento considerável no desempenho estatístico dos modelos. Além disso, foi apresentado o melhor modelo para cada propriedade e cada série
Resumo:
Estudos multitemporais de dados de sensoriamento remoto dedicam-se ao mapeamento temático de uso da terra em diferentes instâncias de tempo com o objetivo de identificar as mudanças ocorridas em uma região em determinado período. Em sua maioria, os trabalhos de classificação automática supervisionada de imagens de sensoriamento remoto não utilizam um modelo de transformação temporal no processo de classificação. Pesquisas realizadas na última década abriram um importante precedente ao comprovarem que a utilização de um modelo de conhecimento sobre a dinâmica da região (modelo de transformação temporal), baseado em Cadeias de Markov Fuzzy (CMF), possibilita resultados superiores aos produzidos pelos classificadores supervisionados monotemporais. Desta forma, o presente trabalho enfoca um dos aspectos desta abordagem pouco investigados: a combinação de CMF de intervalos de tempo curtos para classificar imagens de períodos longos. A área de estudo utilizada nos experimentos é um remanescente florestal situado no município de Londrina-PR e que abrange todo o limite do Parque Estadual Mata dos Godoy. Como dados de entrada, são utilizadas cinco imagens do satélite Landsat 5 TM com intervalo temporal de cinco anos. De uma forma geral, verificou-se, a partir dos resultados experimentais, que o uso das Cadeias de Markov Fuzzy contribuiu significativamente para a melhoria do desempenho do processo de classificação automática em imagens orbitais multitemporais, quando comparado com uma classificação monotemporal. Ainda, pôde-se observar que as classificações com base em matrizes estimadas para períodos curtos sempre apresentaram resultados superiores aos das classificações com base em matrizes estimadas para períodos longos. Também, que a superioridade da estimação direta frente à extrapolação se reduz com o aumento da distância temporal. Os resultados do presente trabalho poderão servir de motivação para a criação de sistemas automáticos de classificação de imagens multitemporais. O potencial de sua aplicação se justifica pela aceleração do processo de monitoramento do uso e cobertura da terra, considerando a melhoria obtida frente a classificações supervisionadas tradicionais.
Resumo:
Esta tese tem por objetivo propor uma estratégia de obtenção automática de parâmetros hidrodinâmicos e de transporte através da solução de problemas inversos. A obtenção dos parâmetros de um modelo físico representa um dos principais problemas em sua calibração, e isso se deve em grande parte à dificuldade na medição em campo desses parâmetros. Em particular na modelagem de rios e estuários, a altura da rugosidade e o coeficiente de difusão turbulenta representam dois dos parâmetros com maior dificuldade de medição. Nesta tese é apresentada uma técnica automatizada de estimação desses parâmetros através deum problema inverso aplicado a um modelo do estuário do rio Macaé, localizado no norte do Rio de Janeiro. Para este estudo foi utilizada a plataforma MOHID, desenvolvida na Universidade Técnica de Lisboa, e que tem tido ampla aplicação na simulação de corpos hídricos. Foi realizada uma análise de sensibilidade das respostas do modelo com relação aos parâmetros de interesse. Verificou-se que a salinidade é uma variável sensível a ambos parâmetros. O problema inverso foi então resolvido utilizando vários métodos de otimização através do acoplamento da plataforma MOHID a códigos de otimização implementados em Fortran. O acoplamento foi realizado de forma a não alterar o código fonte do MOHID, possibilitando a utilização da ferramenta computacional aqui desenvolvida em qualquer versão dessa plataforma, bem como a sua alteração para o uso com outros simuladores. Os testes realizados confirmam a eficiência da técnica e apontam as melhores abordagens para uma rápida e precisa estimação dos parâmetros.
Resumo:
Esta dissertação apresenta um estudo da modelagem de experimentos aplicados a um processo industrial de tratamento térmico. A motivação deste trabalho surgiu diante das dificuldades associadas aos processos de recozimento industrial de aços do tipo baixa liga, na tentativa de encontrar temperaturas nas quais as durezas superficiais dos aços atingissem valores suficientemente baixos, adequados para etapas posteriores de fabricação, em especial a usinagem. Inicialmente forem realizados diversos experimentos com diferentes aços, onde a dureza superficial é obtida em função da temperatura de recozimento e dos teores de carbono e silício das amostras utilizadas. Em seguida propôs-se um modelo quadrático para modelar a dureza superficial como função dessas três variáveis. A estimação de parâmetros do modelo proposto foi realizada com o emprego do algoritmo Simulated Annealing, uma meta-heurística para otimização global que procura imitar o processo de recozimento de um material sólido. Finalmente, usando-se o modelo proposto, foi resolvido o chamado problema inverso, o qual consiste na estimação da temperatura de recozimento em função dos teores de carbono e silício e da dureza desejada.
Resumo:
As instituições financeiras são obrigadas por acordos internacionais, como o Acordo de Basiléia, a avaliar o risco de mercado ao qual a instituição está propensa de forma a evitar possíveis contaminações de desastres financeiros em seu patrimônio. Com o intuito de capturar tais fenômenos, surge a necessidade de construir modelos que capturem com mais acurácia movimentos extremos das séries de retornos. O trabalho teve como principal objetivo aplicar a Teoria do Valor Extremo juntamente com Copulas na estimação de quantis extremos para o VaR. Ele utiliza técnicas de simulação de Monte Carlo, Teoria do Valor Extremo e Cópulas com distribuições gaussianas e t. Em contrapartida, as estimativas produzidas serão comparadas com as de um segundo modelo, chamado de simulação histórica de Monte Carlo filtrada, mais conhecida como filtered historical simulation (FHS). As técnicas serão aplicadas a um portfólio de ações de empresas brasileiras.
Resumo:
Este trabalho procurou analisar o sistema produtivo da atividade leiteira em Minas Gerais, identificando a capacidade dos produtores em permanecer no negócio, a longo prazo, através da estimação da função custo translogarítmica. O estudo demonstrou que os produtores analisados ainda praticam altos custos por unidade produzida, sugerindo baixa eficiência dos estabelecimentos e falhas na administração do empreendimento. Os resultados econométricos revelam a possibilidade de ganhos de escala, no que se refere à alocação e melhor aproveitamento dos recursos, ou seja, as propriedades apresentam economias de escala. No entanto, retornos crescentes de escala não são compatíveis com a existência de mercados competitivos, sinalizando que os produtores enfrentam restrições geradas pelas imperfeições de mercado. O conhecimento dessas imperfeições é essencial à formulação de políticas econômicas e de organizações privadas que visem ao desenvolvimento econômico deste mercado, que atualmente é o sexto maior do mundo. Além disso, os resultados das elasticidades mostram que o produtor é mais sensível às variações de preços na mão-de-obra do que às variações nos demais fatores, reduzindo em maior proporção o uso do trabalho na produção, à medida que seu preço aumenta. Isto evidencia a principal característica regional da produção leiteira no país, que é o uso intensivo do fator trabalho. Também foi identificado que o os medicamentos, alimentos e energia, denominados no estudo de fator dispêndio, são os mais difíceis é o mais difícil de serem substituídos na produção, devido às particularidades no uso dos componentes deste insumo. Por fim, os valores positivos encontrados para as elasticidades parciais de substituição de Allen confirmam a substitutibilidade entre os fatores.
Resumo:
Um grande desafio da atualidade é a preservação dos recursos hídricos, bem como o correto manejo dos mesmos, frente à expansão das cidades e às atividades humanas. A qualidade de um corpo hídrico é usualmente avaliada através da análise de parâmetros biológicos, físicos e químicos. O comportamento de tais parâmetros pode convenientemente ser simulado através de modelos matemáticos e computacionais, que surgem assim como uma ferramenta bastante útil, por sua capacidade de geração de cenários que possam embasar, por exemplo, tomadas de decisão. Nesta tese são discutidas técnicas de estimação da localização e intensidade de uma fonte de contaminante conservativo, hipoteticamente lançado na região predominantemente fluvial de um estuário. O lançamento aqui considerado se dá de forma pontual e contínua e a região enfocada compreendeu o estuário do Rio Macaé, localizado na costa norte do Rio de Janeiro. O trabalho compreende a solução de um problema direto, que consiste no transporte bidimensional (integrado na vertical) desse contaminante hipotético, bem como a aplicação de técnicas de problemas inversos. Para a solução do transporte do contaminante, aqui modelada pela versão 2D horizontal da equação de advecção-difusão, foram utilizados como métodos de discretização o Método de Elementos Finitos e o Método de Diferenças Finitas. Para o problema hidrodinâmico foram utilizados dados de uma solução já desenvolvida para estuário do Rio Macaé. Analisada a malha de acordo com o método de discretização, foram definidas a geometria do estuário e os parâmetros hidrodinâmicos e de transporte. Para a estimação dos parâmetros propostos foi utilizada a técnica de problemas inversos, com o uso dos métodos Luus-Jaakola, Algoritmo de Colisão de Partículas e Otimização por Colônia de Formigas para a estimação da localização e do método Seção Áurea para a estimação do parâmetro de intensidade da fonte. Para a definição de uma fonte, com o objetivo de propor um cenário experimental idealizado e de coleta de dados de amostragem, foi realizada a análise de sensibilidade quanto aos parâmetros a serem estimados. Como os dados de amostragem de concentração foram sintéticos, o problema inverso foi resolvido utilizando-os com e sem ruído, esse introduzido de forma artificial e aleatória. Sem o uso de ruído, os três métodos mostraram-se igualmente eficientes, com uma estimação precisa em 95% das execuções. Já com o uso de dados de amostragem com ruídos de 5%, o método Luus-Jaakola mostrou-se mais eficiente em esforço e custo computacional, embora todos tenham estimado precisamente a fonte em 80% das execuções. Considerando os resultados alcançados neste trabalho tem-se que é possível estimar uma fonte de constituintes, quanto à sua localização e intensidade, através da técnica de problemas inversos. Além disso, os métodos aplicados mostraram-se eficientes na estimação de tais parâmetros, com estimações precisas para a maioria de suas execuções. Sendo assim, o estudo do comportamento de contaminantes, e principalmente da identificação de fontes externas, torna-se uma importante ferramenta para a gestão dos recursos hídricos, possibilitando, inclusive, a identificação de possíveis responsáveis por passivos ambientais.
Resumo:
Uma rede de trocadores de calor pode ser definida como um grupo de trocadores de calor interligados com o objetivo de reduzir a necessidade de energia de um sistema, sendo largamente usada nas indústrias de processos. Entretanto, uma rede está sujeita à deposição, a qual causa um decréscimo na efetividade térmica dos trocadores. Este fenômeno é provocado pelo acúmulo de materiais indesejáveis sobre a superfície de troca térmica. Para compensar a redução de efetividade térmica causada pela deposição, torna-se necessário um aumento no consumo de utilidades. Isto eleva os custos de operação, assim como os custos de manutenção. Estima-se que os custos associados à deposição atinjam bilhões de dólares anualmente. Em face a este problema, vários trabalhos de pesquisa têm investigado métodos para prevenir a deposição e/ou gerenciar as operações em uma rede. Estudos envolvem desde a otimização de trocadores de calor individuais, simulação e monitoramento de redes, até a otimização da programação das paradas para limpeza de trocadores de calor em uma rede. O presente trabalho apresenta a proposição de um modelo para simulação de redes de trocadores de calor com aplicações no gerenciamento da deposição. Como conseqüência, foi desenvolvido um conjunto de códigos computacionais integrados, envolvendo a simulação estacionária de redes, a simulação pseudo-estacionária do comportamento de redes em relação à evolução da deposição, a estimação de parâmetros para diagnóstico do problema da deposição e a otimização operacional deste tipo de sistema. Com relação ao simulador estacionário, o modelo da rede foi formulado matricialmente e os balanços de massa e energia são resolvidos como sistemas de equações lineares. Do ponto de vista da otimização, o procedimento proposto redistribui as vazões, visando um melhor aproveitamento térmico dos trocadores da rede, como, por exemplo, buscando as vazões da rede que maximizem a temperatura da corrente de entrada no forno em unidades de destilação atmosférica de óleo cru. Os algoritmos foram implementados em alguns exemplos da literatura e em um problema de uma refinaria real. Os resultados foram promissores, o que sugere que a proposta deste trabalho pode vir a ser uma abordagem interessante para operações envolvendo redes de trocadores de calor
Resumo:
O objetivo desta tese foi identificar e caracterizar áreas com altas taxas de mortalidade por doenças do aparelho circulatório (DAC) e seus dois principais subgrupos de causas: as doenças isquêmicas do coração (DIC) e as doenças cerebrovasculares (DCV), entre os anos de 2008 e 2012 na área de influência do complexo petroquímico do estado do Rio de Janeiro COMPERJ, por meio de métodos estatísticos e sistemas de informações geográficas (SIG). Os resultados da investigação são apresentados na forma de dois manuscritos. O primeiro objetivou descrever o perfil da distribuição espacial da mortalidade por (DAC), caracterizar e predizer territórios com maior risco de morte por esta causa, com base em classificação das unidades espaciais por indicador de qualidade urbana (IQUmod). A análise multivariada foi realizada por meio do método conhecido como árvore de decisão e regressão, baseado em algoritmo CART para a obtenção do modelo preditivo para UVLs com diferentes riscos de mortalidade por DAC. O modelo desenvolvido foi capaz de discriminar sete conjuntos de UVLs, com diferentes taxas médias de mortalidades. O subconjunto que apresenta a maior taxa média (1037/100 mil hab.) apresenta 3 UVLs com mais de 75% de seus domicílios com abastecimento de água inadequado e valor de IQUmod acima de 0.6. Conclui-se que na área de influência do COMPERJ existem áreas onde a mortalidade por DAC se apresenta com maior magnitude e que a identificação dessas áreas pode auxiliar na elaboração, diagnóstico, prevenção e planejamento de ações de saúde direcionadas aos grupos mais susceptíveis. O segundo manuscrito teve por objetivo descrever o perfil da distribuição espacial da mortalidade por DIC e DCV em relação ao contexto socioambiental segundo áreas geográficas. O modelo de regressão linear de Poisson com parâmetro de estimação via quasi-verossimilhança foi usado para verificar associação entre as variáveis. Foram identificados como fatores de risco para mortalidade por DIC e DCV a variável relativa a melhor renda e maior distância entre domicílios e unidades de saúde; a proporção de domicílios em ruas pavimentadas aparece como fator de proteção. A distribuição espacial e as associações encontradas entre os desfechos e preditores sugerem que as populações residentes em localidades mais afastadas dos centros urbanos apresentam maiores taxas de mortalidade por DIC e DCV e que isto pode estar relacionado a contextos rurais de localização das residências e a distância geográfica destas populações aos serviços de saúde. Aponta-se para a necessidade de desenvolvimento de ações que propiciem maior amplitude no atendimento em saúde, no intuito da redução de eventos cardiovasculares mórbidos incidentes naquelas populações.
Resumo:
A descoberta de petróleo na camada de Pré-Sal possibilita a geração de ganhos em relação à dependência energética do país, mas também grandes desafios econômicos e tecnológicos. Os custos de extração são maiores devido a vários fatores como a exigência de equipamentos de exploração que suportem elevadas pressões, altas temperaturas e grandes concentrações de gases ácidos, tais quais, dióxido de carbono (CO2) e sulfeto de hidrogênio (H2S). Uma das principais preocupações com o CO2 é evitar liberá-lo para a atmosfera durante a produção. Com a modelagem termodinâmica de dados de equilíbrio de sistemas envolvendo CO2 supercrítico e hidrocarbonetos é possível projetar equipamentos utilizados em processos de separação. A principal motivação do trabalho é o levantamento de dados de equilíbrio de fases de sistemas compostos de CO2 e hidrocarbonetos, possibilitando assim prever o comportamento dessas misturas. Os objetivos específicos são a avaliação do procedimento experimental, a estimação e predição dos parâmetros de interação binários para assim prever o comportamento de fases dos sistemas ternários envolvendo CO2 e hidrocarbonetos. Duas metodologias foram utilizadas para obtenção dos dados de equilíbrio: método estático sintético (visual) e método dinâmico analítico (recirculação das fases). Os sistemas avaliados foram: CO2 + n-hexano, CO2 + tetralina, CO2 + n-hexadecano, CO2 + n-hexano + tetralina e CO2 + tetralina + n-hexadecano à alta pressão; tetralina + n-hexadecano à baixa pressão. Para o tratamento dos dados foi utilizada equação de estado cúbica de Peng-Robinson e a regra de mistura clássica