992 resultados para Simulação Discreta com Componentes Contínuas
Resumo:
Os principais constituintes do ar, nitrogênio, oxigênio e argônio, estão cada vez mais presentes nas indústrias, onde são empregados nos processos químicos, para o transporte de alimentos e processamento de resíduos. As duas principais tecnologias para a separação dos componentes do ar são a adsorção e a destilação criogênica. Entretanto, para ambos os processos é necessário que os contaminantes do ar, como o gás carbônico, o vapor dágua e hidrocarbonetos, sejam removidos para evitar problemas operacionais e de segurança. Desta forma, o presente trabalho trata do estudo do processo de pré-purificação de ar utilizando adsorção. Neste sistema a corrente de ar flui alternadamente entre dois leitos adsorvedores para produzir ar purificado continuamente. Mais especificamente, o foco da dissertação corresponde à investigação do comportamento de unidades de pré-purificação tipo PSA (pressure swing adsorption), onde a etapa de dessorção é realizada pela redução da pressão. A análise da unidade de pré-purificação parte da modelagem dos leitos de adsorção através de um sistema de equações diferenciais parciais de balanço de massa na corrente gasosa e no leito. Neste modelo, a relação de equilíbrio relativa à adsorção é descrita pela isoterma de Dubinin-Astakhov estendida para misturas multicomponentes. Para a simulação do modelo, as derivadas espaciais são discretizadas via diferenças finitas e o sistema de equações diferenciais ordinárias resultante é resolvido por um solver apropriado (método das linhas). Para a simulação da unidade em operação, este modelo é acoplado a um algoritmo de convergência relativo às quatro etapas do ciclo de operação: adsorção, despressurização, purga e dessorção. O algoritmo em questão deve garantir que as condições finais da última etapa são equivalentes às condições iniciais da primeira etapa (estado estacionário cíclico). Desta forma, a simulação foi implementada na forma de um código computacional baseado no ambiente de programação Scilab (Scilab 5.3.0, 2010), que é um programa de distribuição gratuita. Os algoritmos de simulação de cada etapa individual e do ciclo completo são finalmente utilizados para analisar o comportamento da unidade de pré-purificação, verificando como o seu desempenho é afetado por alterações nas variáveis de projeto ou operacionais. Por exemplo, foi investigado o sistema de carregamento do leito que mostrou que a configuração ideal do leito é de 50% de alumina seguido de 50% de zeólita. Variáveis do processo foram também analisadas, a pressão de adsorção, a vazão de alimentação e o tempo do ciclo de adsorção, mostrando que o aumento da vazão de alimentação leva a perda da especificação que pode ser retomada reduzindo-se o tempo do ciclo de adsorção. Mostrou-se também que uma pressão de adsorção maior leva a uma maior remoção de contaminantes.
Resumo:
A indústria de processos químicos tem sofrido consideráveis transformações devido ao acirramento da competitividade. Importantes progressos tecnológicos têm sido atingidos através de técnicas de modelagem, simulação e otimização visando o aumento da lucratividade e melhoria contínua nos processos industriais. Neste contexto, as plantas de metanol, um dos mais importantes produtos petroquímicos, podem ser destacadas. Atualmente, a principal matéria-prima para obtenção de metanol é o gás natural. A produção do metanol é caracterizada por três etapas: geração de gás de síntese, conversão do gás de síntese em metanol (unidade de síntese ou loop de síntese) e purificação do produto na especificação requerida. Os custos fixos e variáveis da unidade de síntese são fortemente dependentes das variáveis operacionais, como temperatura, pressão, razão de reciclo e composição da carga. Desta forma, foi desenvolvido um conjunto de modelos e algoritmos computacionais para representar matematicamente unidades de síntese de metanol. O modelo apresenta operações unitárias associadas aos seguintes equipamentos: divisores de correntes, misturadores de correntes, compressores, trocadores de calor, vasos de flash e reatores. Inicialmente, foi proposto um simulador estacionário, que serviu como base para um pseudo-estacionário, o qual contempla a desativação do catalisador por sinterização térmica. Os simuladores foram criados segundo uma arquitetura seqüencial modular e empregou-se o método de substituição sucessiva para a convergência dos reciclos. O estudo envolveu dois fluxogramas típicos, um constituído por reatores adiabáticos em série, enquanto o outro constituído por um reator tipo quench. Uma análise do efeito das principais variáveis operacionais foi realizada para o reator e para o loop de síntese. Estudou-se também o efeito da desativação do catalisador ao longo do tempo. Uma ferramenta de otimização operacional foi empregada para alcançar a máxima produção manipulando as injeções de carga fria na entrada dos leitos catalíticos. Formulou-se também um problema de maximização do lucro em função da otimização de paradas da unidade para troca do catalisador. Os resultados obtidos apontam que a ferramenta desenvolvida é promissora para a compreensão e otimização da unidade objeto deste estudo
Resumo:
O reservatório do Lobo, localizado no estado de São Paulo, é um sistema dinâmico no qual se desenvolve um ciclo diurno de estratificação e mistura, de modo similar ao que tem sido observado em outros lagos tropicais. Utilizou-se simulação 3D computacional com os softwares ELCOM (Estuary and Lake Computer Model) acoplado ao CAEDYM (Computacional Aquatic Ecosystem Dynamics Model), ambos desenvolvidos pelo CWR (Center for Water Research) da Universidade da Austrália. Foram realizadas cinco simulações: Piloto Primavera baseada em dados reais da estação no ano primavera no reservatório para o ano de 2007; Primavera-P em que as concentrações de fósforo total, fosfato inorgânico e fosfato total dissolvido foram aumentadas em 100% no reservatório (coluna de água e sedimento) e nos rios tributários; Primavera-V na qual a intensidade dos ventos foi aumentada em 50%; Primavera-T onde a temperatura da água (reservatório e tributários) e do ar foram aumentadas em 10C e, Primavera-X, onde a temperatura da água (reservatório e tributários) e do ar sofreu aumento em 10C, as concentrações de fósforo total, fosfato inorgânico e fosfato total dissolvido foram aumentadas em 100% e a velocidade do vento aumentada em 50%. A concentração de clorofila a foi representada pelos grupos cianobactérias e clorofíceas. O espaço de tempo das simulações representou 90 dias. As clorofíceas apresentaram maior desenvolvimento populacional do que as cianobactérias em todas as simulações. No reservatório, a mistura vertical é ocasionada diariamente pelo vento ou por processos convectivos causados pela perda de calor no corpo de água. A oxigenação do reservatório é maior com a ocorrência de ventos e de grupos fotossintéticos. As concentrações totais de fósforo e nitrogênio apresentaram aumento em todas as simulações.
Resumo:
A presente pesquisa concentra-se no estudo hidrológico utilizando o potencial das geotecnologias na modelagem do escoamento na bacia do rio Bengalas, cujo rio principal de mesmo nome, corta o município de Nova Friburgo, RJ, no sentido Sul-Norte. Esse município, um dos mais importantes da região serrana, sofre frequentemente com inundações e deslizamentos, onde, dados históricos e acontecimentos recentes mostram que a ocupação inadequada de encostas e calhas dos rios são as áreas destacada e negativamente afetadas. A metodologia tem suporte no uso de um SIG, extraindo informações, que por sua vez, serão entrada de dados na fase de modelagem, e reforçando a apresentação dos resultados das simulações através de mapas. Ela está divida basicamente em três etapas: "SIG", "Modelagem" e "Suporte à Tomada de Decisão/Simulação". Esse primeiro estudo permitiu compor um banco de dados geográfico com as características fisiográficas da bacia; a seleção criteriosa de uma modelagem matemática e encadeamento de seus parâmetros com os componentes do ciclo hidrológico; realizar a calibração do modelo de transformação chuva-vazão, Soil Conservation Service (CN); e simular a passagem dos volumes gerados pela precipitação efetiva na calha do rio Bengalas, com o objetivo de identificar e analisar as áreas suscetíveis a inundações na porção central da cidade de Nova Friburgo. Modelagem dessa natureza vem sendo empregada, principalmente, no gerenciamento de recursos hídricos, onde a tomada de decisões embasada nos resultados de simulações computacionais, contribuem para evitar prejuízos materiais e financeiros, e ainda, perdas de vidas humanas em áreas de risco, neste caso, aquelas suscetíveis a inundações. Analisando os resultados encontrados temos que a área suscetível à inundação para uma chuva com tempo de recorrência de 50 anos, o mais crítico estudado, seja de aproximadamente 1,0 km, distribuídos nos seus 8,5km na região central de Nova Friburgo-RJ, sendo está, ora delimitada, prioritariamente edificada.
Resumo:
O propósito do presente trabalho foi investigar a participação da proliferação celular e da expressão dos componentes da matriz extracelular na cascata de eventos do processo de reparo da fratura óssea, empregando as técnicas histológica, imunohistoquímica e morfométrica, em um modelo experimental padronizado para a indução da lesão na tíbia de ratos a partir do método empregado por Yuehuei e Friedman7. É importante padronizar um modelo de indução da fratura, para posterior investigação da participação das células e dos componentes da matriz extracelular no processo de reparo da fratura, considerando que o tempo de consolidação depende significantemente da natureza e do tipo da lesão produzida. Quarenta (n = 40) ratos Wistar foram submetidos a fratura . Os animais foram avaliados em oito (n = 8) grupos de cinco (n = 5) animais, cada grupo emperimental com 12, 24, 48, 72, 96, 144, 192 e 240 horas após a fratura (12h até 10 dias). As fraturas foram classificadas de acordo com o sistema de classificação internacional de fratura de Muller100, AO (Associação para Osteosíntese). Foram encontradas fraturas simples em 86% do total, sendo 68% de fraturas transversas e 18% de fraturas obliquas, 14% do total de fraturas foram complexas, sendo 8% de fraturas irregulares e 6% de fraturas segmentares. Esses resultados demonstram que o aparelho permite padronizar radiológicamente o tipo de fratura, caracterizado pela linha que separa os fragmentos ósseos. Os resultados qualitativos dos componentes da matriz extracelular para TGF-β, VEGF, colágeno I e II, osteopontina, proteoglicanos, fibras do sistema elástico com a coloração de resorcina funcsina de Weigert, e para proliferação celular pelo PCNA, assim como os resultados morfométricos, sugerem que a modulação da expressão dos componentes da matriz extracelular e a proliferação celular durante o processo de reparo da fratura não é homogênea para todos os componentes teciduais, dependendo significantemente das tensões locais geradas pelo tipo da linha de fratura que pode ser determinante no tempo de regeneração do osso e na qualidade da restauração das propriedades biomecânica. Nossos achados podem contribuir para melhor compreensão da reparo de fratura óssea e para novas abordagens terapêuticas que considerem as propriedades biomecânicas do tecido ósseo em reparo nas suas diferentes etapas
Resumo:
Este trabalho apresenta uma arquitetura geral para evolução de circuitos eletrônicos analógicos baseada em algoritmos genéticos. A organização lógica privilegia a interoperabilidade de seus principais componentes, incluindo a possibilidade de substituição ou melhorias internas de suas funcionalidades. A plataforma implementada utiliza evolução extrínseca, isto é, baseada em simulação de circuitos, e visa facilidade e flexibilidade para experimentação. Ela viabiliza a interconexão de diversos componentes aos nós de um circuito eletrônico que será sintetizado ou adaptado. A técnica de Algoritmos Genéticos é usada para buscar a melhor forma de interconectar os componentes para implementar a função desejada. Esta versão da plataforma utiliza o ambiente MATLAB com um toolbox de Algoritmos Genéticos e o PSpice como simulador de circuitos. Os estudos de caso realizados apresentaram resultados que demonstram a potencialidade da plataforma no desenvolvimento de circuitos eletrônicos adaptativos.
Resumo:
270 p.
Resumo:
A demanda crescente por poder computacional estimulou a pesquisa e desenvolvimento de processadores digitais cada vez mais densos em termos de transistores e com clock mais rápido, porém não podendo desconsiderar aspectos limitantes como consumo, dissipação de calor, complexidade fabril e valor comercial. Em outra linha de tratamento da informação, está a computação quântica, que tem como repositório elementar de armazenamento a versão quântica do bit, o q-bit ou quantum bit, guardando a superposição de dois estados, diferentemente do bit clássico, o qual registra apenas um dos estados. Simuladores quânticos, executáveis em computadores convencionais, possibilitam a execução de algoritmos quânticos mas, devido ao fato de serem produtos de software, estão sujeitos à redução de desempenho em razão do modelo computacional e limitações de memória. Esta Dissertação trata de uma versão implementável em hardware de um coprocessador para simulação de operações quânticas, utilizando uma arquitetura dedicada à aplicação, com possibilidade de explorar o paralelismo por replicação de componentes e pipeline. A arquitetura inclui uma memória de estado quântico, na qual são armazenados os estados individuais e grupais dos q-bits; uma memória de rascunho, onde serão armazenados os operadores quânticos para dois ou mais q-bits construídos em tempo de execução; uma unidade de cálculo, responsável pela execução de produtos de números complexos, base dos produtos tensoriais e matriciais necessários à execução das operações quânticas; uma unidade de medição, necessária à determinação do estado quântico da máquina; e, uma unidade de controle, que permite controlar a operação correta dos componente da via de dados, utilizando um microprograma e alguns outros componentes auxiliares.
Resumo:
Em um ambiente virtual, construído com o uso de tecnologia computacional, encontram-se presentes entidades virtuais inseridas em um espaço tridimensional, que é utilizado para a simulação de processos críticos, como os acidentes radiológicos. A pronta detecção de um acidente radiológico e a determinação da sua possível extensão são fatores essenciais para o planejamento de respostas imediatas e de ações de emergência. A integração das representações georeferenciadas do espaço tridimensional, com modelos baseados em agentes autônomos, com o objetivo de construir ambientes virtuais que tenham a capacidade de simular acidentes radiológicos é a proposta dessa tese. As representações georeferenciadas do espaço tridimensional candidatas são: i)as representações espaciais usadas nos sistemas de informações geográficas (SIG) e ii) a representação adotada pelo Google MapsTM. Com o uso deste ambiente pode-se: quantificar as doses recebidas pelas pessoas; ter uma distribuição espacial das pessoas contaminadas; estimar o número de indivíduos contaminados; estimar o impacto na rede de saúde; estimar impactos ambientais; gerar zonas de exclusão; construir cenários alternativos; treinar pessoal técnico para lidar com acidentes radiológicos.
Resumo:
Nesta dissertação são apresentados resultados de simulações Monte Carlo de fluorescência de raios X (XRF), utilizando o programa GEANT4, para medidas de espessura de revestimento metálico (Ni e Zn) em base metálica (Fe). As simulações foram feitas para dois tamanhos de espessura para cada metal de revestimento, (5μm e 10μm), com passos de 0,1 μm e 0,001 μm e com 106 histórias. No cálculo da espessura do revestimento foram feitas as aproximações de feixe de raios X monoenegético, com a análise da transmissão apenas da energia do K-alfa e para uma geometria compatível com um sistema real de medição (ARTAX-200). Os resultados mostraram a eficiência da metodologia de simulação e do cálculo da espessura do revestimento, o que permitirá futuros cálculos, inclusive para multirevestimentos metálicos em base metálica.
Resumo:
Esta pesquisa tem como objetivos, (i) verificar a ação dos componentes da patronagem: status, econômico e ideológico sob a tradução e publicação de obras da Literatura Infanto-Juvenil brasileira na hegemônica cultura norte-americana e, (ii) verificar se as estratégias de tradução dos itens de especificidade cultural de Do Outro Mundo de Ana Maria Machado estão em concordância com as normas de tradução de LIJ que, de acordo com Zohar Shavit (2006), pressupõem uma maior liberdade por parte do tradutor para que esse ajuste a trama, os personagens e a língua a capacidade de leitura e ao conhecimento de mundo infantil. A relação entre esses objetivos é verificada na afirmação de Gigeon Toury (1995a, p. 13) de que a posição ocupada pela tradução no sistema da cultura-alvo afeta diretamente as estratégias adotadas pelos tradutores e a composição dos textos traduzidos. Com base nos Estudos Descritivos da Tradução (TOURY, 1995b), o conceito de patronagem introduzido por André Lefevere (1992) associado às considerações feitas por James English (2005) quanto à importância dos prêmios na sociedade atual foram fundamentais para a compreensão da ação dos componentes da patronagem sob a literatura Infanto-juvenil. Outro importante conceito aos objetivos desta pesquisa foi o de item de especificidade cultural de Javier Franco Aixelá (1996). Na análise dos dados desta pesquisa utilizei a reformulação da classificação das estratégias de tradução dos itens de Carla Bentes (2005) nos IEC de Do Outro Mundo e respectiva tradução em inglês From Another World. Os procedimentos de análise do corpus basearam-se no modelo de Lambert e van Gorp (1985) para a análise da tradução literária. Utilizo desse modelo a análise dos dados preliminares e a análise microtextual por atenderem aos objetivos desta pesquisa. O estudo se encerra com considerações a respeito da tradução de literatura Infanto-juvenil brasileira e as implicações sob o público-alvo
Resumo:
[ES]Se trata de estudiar y comparar dos tratamientos mecánicos superficiales, el Shot-Peening y el Low Plasticity Ball Burnishing, mediante ensayos y un estudio de los resultados obtenidos, para determinar cuál resulta más adecuado para mejorar el comportamiento a fatiga de los elementos de suspensiones de automóvil.
Resumo:
As ferramentas computacionais estão apoiando, de maneira crescente, o processo de ensino e aprendizagem em diversas áreas. Elas aumentam as possibilidades do docente para ministrar um conteúdo e interagir com seus alunos. Neste grupo de ferramentas estão as simulações baseadas em sistemas multiagentes. Neste contexto, este trabalho tem como objetivo apresentar um ambiente de simulação do crescimento populacional de uma colmeia para o ensino de Biologia. As variáveis do sistema podem ser alteradas visando analisar os diferentes resultados obtidos. Aspectos como duração e tempo da florada das plantações, conhecidos como campos de flores, podem ser manipulados pelo aluno. A abordagem multiagentes em Inteligência Artificial Distribuída foi a solução escolhida, para que o controle das atividades do aplicativo fosse feito de maneira automatizada. A Realidade Virtual foi utilizada para acrescentar aspectos importantes do processo que não podem ser visualizados pela simulação matemática. Uma síntese da utilização de tecnologias na educação, em especial da Informática, é discutida no trabalho. Aspectos da aplicação no ensino de Biologia são apresentados, assim como resultados iniciais de sua utilização.
Resumo:
O objetivo deste trabalho é tratar da simulação do fenômeno de propagação de ondas em uma haste heterogênea elástico, composta por dois materiais distintos (um linear e um não-linear), cada um deles com a sua própria velocidade de propagação da onda. Na interface entre estes materiais existe uma descontinuidade, um choque estacionário, devido ao salto das propriedades físicas. Empregando uma abordagem na configuração de referência, um sistema não-linear hiperbólico de equações diferenciais parciais, cujas incógnitas são a velocidade e a deformação, descrevendo a resposta dinâmica da haste heterogénea. A solução analítica completa do problema de Riemann associado são apresentados e discutidos.
Resumo:
[ES]El objetivo de este trabajo ha sido la determinación de un proceso para la reutilización del polvo metálico desperdiciado durante el proceso de aporte por láser. El polvo necesita ser inyectado para ser fundido directamente sobre el aporte pero un alto porcentaje de las partículas golpean el área no fundida y directamente rebotan fuera de la zona de aporte. La eficiencia de las partículas depositadas puede bajar hasta el 40 % dependiendo de la configuración y del tamaño del punto de aporte. El material utilizado ha sido la superaleación de níquel Inconel 718 debido a su potencial aplicación en procesos de fabricación aditiva. Después del primer uso, el polvo es recolectado y tamizado. La fracción indeseada es magnéticamente segregada y la parte limpia es nuevamente tamizada para obtener datos y de nuevo mezclada para estar lista para la reutilización. No ha sido añadido polvo nuevo a la fracción recuperada y este procedimiento ha sido repetido 5 veces. Los test experimentales muestran que el material depositado presenta resultados similares a aquellos obtenidos con polvo nuevo. La implementación de este proceso permite la mejora de la eficiencia final reduciendo tanto costes como residuos materiales.