921 resultados para Termodinâmica computacional


Relevância:

70.00% 70.00%

Publicador:

Resumo:

O presente trabalho tem por objetivo o estudo dos tratamentos termoquímicos comuns na indústria metalúrgica denominados: nitretação, nitrocarburação e carbonitretação com o auxílio da ferramenta conhecida como ‘termodinâmica computacional’. Com o uso de um aplicativo computacional e de um banco de dados compacto procurou-se primeiramente o perfeito entendimento dos processos, por exemplo, através da análise do efeito de variáveis como temperatura, pressão e composição das fases gasosa e condensada. A partir deste entendimento procurouse simular os tratamentos termoquímicos dentro de parâmetros conhecidos da prática industrial e, finalmente, procurou-se sugerir algumas outras atmosferas possíveis de serem aplicadas, que se mostraram apropriadas aos objetivos de tais tratamentos. Durante a simulação, constatou-se que alguns resultados mostraram-se algo diferente dos existentes na literatura, provavelmente por diferenças nos dados termodinâmicos utilizados. Este fato, contudo, não invalida as simulações. Sugere-se apenas, para o futuro, a utilização de bancos de dados ainda mais compatíveis com os resultados obtidos na prática industrial.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O tratamento de modificação de óxidos (e sulfetos) com cálcio tornou-se usual na produção de aços de elevada limpeza interna. O conhecimento da composição química de inclusões, dependendo da composição do aço líquido, é requisito fundamental para garantir a lingotabilidade desses aços e propriedades mecânicas adequadas dependendo da aplicação dos mesmos. O objetivo deste trabalho foi o estudo da composição química de inclusões ao longo do processo de refino secundário, com enfoque no tratamento com cálcio. Para tanto, foram comparados dados experimentais (planta industrial) com simulações via termodinâmica computacional (software FactSage). A metodologia utilizada consistiu em: a) obtenção de dados experimentais para determinar os dados de entrada das simulações; b) utilizar os bancos de dados e a rotina de minimização da Energia de Gibbs do software FactSage, para calcular o equilíbrio entre as fases aço líquido (modelo associado) e inclusões (escória - modelo quase-químico modificado) e; c) comparar os resultados obtidos na planta industrial com os simulados via FactSage. O acompanhamento do processo de elaboração do aço na Gerdau Aços Especiais Piratini (AEP) foi fundamental para identificar eventuais desvios de processo, bem como para interpretar eventuais discrepâncias entre os resultados Na simulação de todas as provas, verificou-se que é fundamental um baixo desvio-padrão na análise dos elementos, se o objetivo é simular um padrão de elaboração de aço. Como resultado deste trabalho, verificou-se ainda que entre 10 e 14 ppm é a faixa ideal de cálcio para a formação de inclusões líquidas com teor mínimo de CaS, para os níveis de oxigênio, enxofre e alumínio do SAE 8620 na etapa final do processo de elaboração desse aço na AEP. É importante destacar que faixas mais amplas de cálcio podem ser utilizadas, dependendo do tipo de processo na aciaria e do tipo de produto requerido.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O mercado atual exige das indústrias siderúrgicas aços de melhor qualidade produzidos por meio de processos que causem menor impacto ao meio ambiente. Dessa forma, este trabalho teve como objetivo reciclar o resíduo de mármore gerado na indústria de rochas ornamentais, que possui em sua composição óxido de cálcio (CaO) e óxido de magnésio (MgO). O CaO é suficiente para substituir a cal nas escórias e o MgO contribui para a diminuição do desgaste dos refratários, através do emprego do resíduo no processo produtivo do aço. Além disso, foi realizada a substituição da fluorita por óxido de boro como fluxante na composição de misturas dessulfurantes. O resíduo de mármore foi caracterizado utilizando as seguintes técnicas: análise química via EDXFR, análise granulométrica via espalhamento de luz, área de superfície específica pelo método BET, difração de raios-X, microscopia eletrônica de varredura (MEV) e análise de micro-regiões por EDS. Visando verificar a eficiência na dessulfuração, foram formuladas misturas sintéticas utilizando a cal convencional ou resíduo de mármore, e a fluorita ou o óxido de boro. As misturas foram formuladas com o auxílio dos programas de termodinâmica computacional, Thermo-Calc e FactSage. Estas misturas foram adicionadas no aço fundido a temperatura de 1600°C sob atmosfera de argônio e agitadas por meio de um rotor de alumina. Amostras de metal foram retiradas para verificar a variação do teor de enxofre durante o experimento. O resíduo de mármore caracterizado, apresentou em sua composição 40% de CaO e 14% de MgO, na forma dos carbonatos CaCO3 e MgCO3. Obteve uma perda de massa de 42,1%, na forma de CO2 a temperatura de 780°C. Os experimentos mostraram que, as misturas testadas apresentaram, na maioria dos casos, eficiência de dessulfuração acima de 60%.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Resumen: El modelado del proceso de ruptura dieléctrica de aislantes sometidos a un campo eléctrico intenso es importante para el desarrollo de nuevos materiales en las industrias eléctrica y electrónica. Información experimental generada en el laboratorio muestra que el proceso de ruptura dieléctrica involucra la transferencia de energía con la consecuente acumulación progresiva de carga y daño en el material. Ésta, produce finalmente la ruptura macroscópica, creando un camino conductor que inutiliza al material aislante. A partir de experimentos de simulación se han calculado los parámetros característicos (dos y tres parámetros) de la función de distribución de fallas (distribución de Weibull), para distintas familias de árboles. También se ha estudiado la relación intrínseca entre las distintas familias de árboles, mediante una distribución generalizada de Weibull con un índice entrópico q. Este índice q es representativo de la estructura fractal de los distintos árboles.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O cálculo do equilíbrio de fases é um problema de grande importância em processos da engenharia, como, por exemplo, na separação por destilação, em processos de extração e simulação da recuperação terciária de petróleo, entre outros. Mas para resolvê-lo é aconselhável que se estude a priori a estabilidade termodinâmica do sistema, a qual consiste em determinar se uma dada mistura se apresenta em uma ou mais fases. Tal problema pode ser abordado como um problema de otimização, conhecido como a minimização da função distância do plano tangente à energia livre de Gibbs molar, onde modelos termodinâmicos, de natureza não convexa e não linear, são utilizados para descrevê-lo. Esse fato tem motivado um grande interesse em técnicas de otimização robustas e eficientes para a resolução de problemas relacionados com a termodinâmica do equilíbrio de fases. Como tem sido ressaltado na literatura, para proporcionar uma completa predição do equilíbrio de fases, faz-se necessário não apenas a determinação do minimizador global da função objetivo do teste de estabilidade, mas também a obtenção de todos os seus pontos estacionários. Assim, o desenvolvimento de metodologias para essa tarefa desafiadora tem se tornado uma nova área de pesquisa da otimização global aplicada à termodinâmica do equilíbrio, com interesses comuns na engenharia química e na engenharia do petróleo. O foco do presente trabalho é uma nova metodologia para resolver o problema do teste de estabilidade. Para isso, usa-se o chamado método do conjunto gerador para realizar buscas do tipo local em uma rede de pontos previamente gerada por buscas globais efetuadas com uma metaheurística populacional, no caso o método do enxame de partículas.Para se obter mais de um ponto estacionário, minimizam-se funções de mérito polarizadas, cujos pólos são os pontos previamente encontrados. A metodologia proposta foi testada na análise de quatorze misturas polares previamente consideradas na literatura. Os resultados mostraram que o método proposto é robusto e eficiente a ponto de encontrar, além do minimizador global, todos os pontos estacionários apontados previamente na literatura, sendo também capaz de detectar, em duas misturas ternárias estudadas, pontos estacionários não obtidos pelo chamado método de análise intervalar, uma técnica confiável e muito difundida na literatura. A análise do teste de estabilidade pela simples utilização do método do enxame de partículas associado à técnica de polarização mencionada acima, para a obtenção de mais de um ponto estacionário (sem a busca local feita pelo método do conjunto gerador em uma dada rede de pontos), constitui outra metodologia para a resolução do problema de interesse. Essa utilização é uma novidade secundária deste trabalho. Tal metodologia simplificada exibiu também uma grande robustez, sendo capaz de encontrar todos os pontos estacionários pesquisados. No entanto, quando comparada com a abordagem mais geral proposta aqui, observou-se que tal simplificação pode, em alguns casos onde a função de mérito apresenta uma geometria mais complexa, consumir um tempo de máquina relativamente grande, dessa forma é menos eficiente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Duración (en horas): De 21 a 30 horas Destinatario: Estudiante y Docente

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho, foi desenvolvido um simulador numérico baseado no método livre de malhas Smoothed Particle Hydrodynamics (SPH) para a resolução de escoamentos de fluidos newtonianos incompressíveis. Diferentemente da maioria das versões existentes deste método, o código numérico faz uso de uma técnica iterativa na determinação do campo de pressões. Este procedimento emprega a forma diferencial de uma equação de estado para um fluido compressível e a equação da continuidade a fim de que a correção da pressão seja determinada. Uma versão paralelizada do simulador numérico foi implementada usando a linguagem de programação C/C++ e a Compute Unified Device Architecture (CUDA) da NVIDIA Corporation. Foram simulados três problemas, o problema unidimensional do escoamento de Couette e os problemas bidimensionais do escoamento no interior de uma Cavidade (Shear Driven Cavity Problem) e da Quebra de Barragem (Dambreak).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A estimação de parâmetros cinéticos em processos químicos e cromatográficos utilizando técnicas numéricas assistidas por computadores tem conduzido para melhoria da eficiência e o favorecimento da compreensão das fenomenologias envolvidas nos mesmos. Na primeira parte deste trabalho será realizada a modelagem computacional do processo de produção de biodiesel via esterificação, sendo que, o método de otimização estocástica Random Restricted Window (R2W) será correlacionado com os dados experimentais da produção de biodiesel a partir da esterificação do ácido láurico com etanol anidro na presença do catalisador ácido nióbico (Nb2O5). Na segunda parte do mesmo será realizada a modelagem computacional do processo de cromatografia de adsorção (batch process) onde serão correlacionados os dados provenientes dos modelos cinéticos de HASHIM, CHASE e IKM2 com os dados experimentais da adsorção de amoxicilina com quitosana, e também serão correlacionados os dados experimentais da adsorção de Bovine Serum Albumin (BSA) com Streamline DEAE com os dados provenientes de uma nova aplicação do método R2W mediante a implementação de um modelo cinético reversível. Ademais, as constantes cinéticas para cada processo supracitado serão estimadas levando em consideração o valor mínimo da função resíduos quadrados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Somente no ano de 2011 foram adquiridos mais de 1.000TB de novos registros digitais de imagem advindos de Sensoriamento Remoto orbital. Tal gama de registros, que possui uma progressão geométrica crescente, é adicionada, anualmente, a incrível e extraordinária massa de dados de imagens orbitais já existentes da superfície da Terra (adquiridos desde a década de 70 do século passado). Esta quantidade maciça de registros, onde a grande maioria sequer foi processada, requer ferramentas computacionais que permitam o reconhecimento automático de padrões de imagem desejados, de modo a permitir a extração dos objetos geográficos e de alvos de interesse, de forma mais rápida e concisa. A proposta de tal reconhecimento ser realizado automaticamente por meio da integração de técnicas de Análise Espectral e de Inteligência Computacional com base no Conhecimento adquirido por especialista em imagem foi implementada na forma de um integrador com base nas técnicas de Redes Neurais Computacionais (ou Artificiais) (através do Mapa de Características Auto- Organizáveis de Kohonen SOFM) e de Lógica Difusa ou Fuzzy (através de Mamdani). Estas foram aplicadas às assinaturas espectrais de cada padrão de interesse, formadas pelos níveis de quantização ou níveis de cinza do respectivo padrão em cada uma das bandas espectrais, de forma que a classificação dos padrões irá depender, de forma indissociável, da correlação das assinaturas espectrais nas seis bandas do sensor, tal qual o trabalho dos especialistas em imagens. Foram utilizadas as bandas 1 a 5 e 7 do satélite LANDSAT-5 para a determinação de cinco classes/alvos de interesse da cobertura e ocupação terrestre em três recortes da área-teste, situados no Estado do Rio de Janeiro (Guaratiba, Mangaratiba e Magé) nesta integração, com confrontação dos resultados obtidos com aqueles derivados da interpretação da especialista em imagens, a qual foi corroborada através de verificação da verdade terrestre. Houve também a comparação dos resultados obtidos no integrador com dois sistemas computacionais comerciais (IDRISI Taiga e ENVI 4.8), no que tange a qualidade da classificação (índice Kappa) e tempo de resposta. O integrador, com classificações híbridas (supervisionadas e não supervisionadas) em sua implementação, provou ser eficaz no reconhecimento automático (não supervisionado) de padrões multiespectrais e no aprendizado destes padrões, pois para cada uma das entradas dos recortes da área-teste, menor foi o aprendizado necessário para sua classificação alcançar um acerto médio final de 87%, frente às classificações da especialista em imagem. A sua eficácia também foi comprovada frente aos sistemas computacionais testados, com índice Kappa médio de 0,86.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Uma dedução dos critérios de multicriticalidade para o cálculo de pontos críticos de qualquer ordem representa a formalização de ideias utilizadas para calcular pontos críticos e tricríticos e ainda amplia tais ideias. De posse desta dedução pode-se compreender os critérios de tricriticalidade e, com isso, através de uma abordagem via problema de otimização global pode-se fazer o cálculo de pontos tricríticos utilizando um método numérico adequado de otimização global. Para evitar um excesso de custo computacional com rotinas numéricas utilizou-se aproximações na forma de diferenças finitas dos termos que compõem a função objetivo. Para simular a relação P v - T optou-se pela equação de estado cúbica de Peng-Robinson e pela regra clássica de fluidos de van der Vaals, para modelagem do problema também se calculou os tensores de ordem 2, 3, 4 e 5 da função do teste de estabilidade. Os resultados obtidos foram comparados com dados experimentais e por resultados obtidos com outros autores que utilizaram métodos numéricos, equação de estado ou abordagem diferente das utilizadas neste trabalho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Um método numérico espectronodal (END) livre de erros de truncamento espacial é desenvolvido para problemas unidimensionais de difusão de nêutrons monoenergéticos em duas versões. Na versão de problemas de autovalor, o método gera soluções numéricas para o perfil do fluxo escalar e para o fator de multiplicação efetivo (k), que coincidem com a solução analítica dominante, afora os erros da aritmética finita computacional. Na versão de fonte fxa, o método também gera soluções numéricas analíticas para o problema de fonte fixa correspondente, onde a fonte de fissão, com dependência espacial, é obtida analiticamente, a partir da reconstrução espacial do fluxo escalar gerado pelo método END para problemas de autovalor. Alguns experimentos numéricos são apresentados para dois problemas modelos a fim de ilustrar a precisão do método.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta pesquisa consiste na solução do problema inverso de transferência radiativa para um meio participante (emissor, absorvedor e/ou espalhador) homogêneo unidimensional em uma camada, usando-se a combinação de rede neural artificial (RNA) com técnicas de otimização. A saída da RNA, devidamente treinada, apresenta os valores das propriedades radiativas [ω, τ0, ρ1 e ρ2] que são otimizadas através das seguintes técnicas: Particle Collision Algorithm (PCA), Algoritmos Genéticos (AG), Greedy Randomized Adaptive Search Procedure (GRASP) e Busca Tabu (BT). Os dados usados no treinamento da RNA são sintéticos, gerados através do problema direto sem a introdução de ruído. Os resultados obtidos unicamente pela RNA, apresentam um erro médio percentual menor que 1,64%, seria satisfatório, todavia para o tratamento usando-se as quatro técnicas de otimização citadas anteriormente, os resultados tornaram-se ainda melhores com erros percentuais menores que 0,04%, especialmente quando a otimização é feita por AG.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho é apresentada uma nova abordagem para obter as respostas impulsivas biauriculares (BIRs) para um sistema de aurilização utilizando um conjunto de redes neurais artificiais (RNAs). O método proposto é capaz de reconstruir as respostas impulsivas associadas à cabeça humana (HRIRs) por meio de modificação espectral e de interpolação espacial. A fim de cobrir todo o espaço auditivo de recepção, sem aumentar a complexidade da arquitetura da rede, uma estrutura com múltiplas RNAs (conjunto) foi adotada, onde cada rede opera uma região específica do espaço (gomo). Os três principais fatores que influenciam na precisão do modelo arquitetura da rede, ângulos de abertura da área de recepção e atrasos das HRIRs são investigados e uma configuração ideal é apresentada. O erro de modelagem no domínio da frequência é investigado considerando a natureza logarítmica da audição humana. Mais ainda, são propostos novos parâmetros para avaliação do erro, definidos em analogia com alguns dos bem conhecidos parâmetros de qualidade acústica de salas. Através da metodologia proposta obteve-se um ganho computacional, em redução do tempo de processamento, de aproximadamente 62% em relação ao método tradicional de processamento de sinais utilizado para aurilização. A aplicabilidade do novo método em sistemas de aurilização é reforçada mediante uma análise comparativa dos resultados, que incluem a geração das BIRs e o cálculo dos parâmetros acústicos biauriculares (IACF e IACC), os quais mostram erros de magnitudes reduzidas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A descoberta de petróleo na camada de Pré-Sal possibilita a geração de ganhos em relação à dependência energética do país, mas também grandes desafios econômicos e tecnológicos. Os custos de extração são maiores devido a vários fatores como a exigência de equipamentos de exploração que suportem elevadas pressões, altas temperaturas e grandes concentrações de gases ácidos, tais quais, dióxido de carbono (CO2) e sulfeto de hidrogênio (H2S). Uma das principais preocupações com o CO2 é evitar liberá-lo para a atmosfera durante a produção. Com a modelagem termodinâmica de dados de equilíbrio de sistemas envolvendo CO2 supercrítico e hidrocarbonetos é possível projetar equipamentos utilizados em processos de separação. A principal motivação do trabalho é o levantamento de dados de equilíbrio de fases de sistemas compostos de CO2 e hidrocarbonetos, possibilitando assim prever o comportamento dessas misturas. Os objetivos específicos são a avaliação do procedimento experimental, a estimação e predição dos parâmetros de interação binários para assim prever o comportamento de fases dos sistemas ternários envolvendo CO2 e hidrocarbonetos. Duas metodologias foram utilizadas para obtenção dos dados de equilíbrio: método estático sintético (visual) e método dinâmico analítico (recirculação das fases). Os sistemas avaliados foram: CO2 + n-hexano, CO2 + tetralina, CO2 + n-hexadecano, CO2 + n-hexano + tetralina e CO2 + tetralina + n-hexadecano à alta pressão; tetralina + n-hexadecano à baixa pressão. Para o tratamento dos dados foi utilizada equação de estado cúbica de Peng-Robinson e a regra de mistura clássica

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ao se realizar estudo em qualquer área do conhecimento, quanto mais dados se dispuser, maior a dificuldade de se extrair conhecimento útil deste banco de dados. A finalidade deste trabalho é apresentar algumas ferramentas ditas inteligentes, de extração de conhecimento destes grandes repositórios de dados. Apesar de ter várias conotações, neste trabalho, irá se entender extração de conhecimento dos repositórios de dados a ocorrência combinada de alguns dados com freqüência e confiabilidade que se consideram interessantes, ou seja, na medida e que determinado dado ou conjunto de dados aparece no repositório de dados, em freqüência considerada razoável, outro dado ou conjunto de dados irá aparecer. Executada sobre repositórios de dados referentes a informações georreferenciadas dos alunos da UERJ (Universidade do Estado do Rio de Janeiro), irá se analisar os resultados de duas ferramentas de extração de dados, bem como apresentar possibilidades de otimização computacional destas ferramentas.