143 resultados para Modelagem Simulação


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Para tentar elucidar os efeitos da codisposição de embalagens de agrotóxico no âmbito de um aterro sanitário, foram monitoradas oito células de aterro, em tamanho reduzido. O resíduo sólido urbano utilizado nas oito células foi proveniente do município de Porto Alegre, tendo sido caracterizado antes da montagem do experimento. Os reatores foram submetidos a regas semanais por água, simulando uma situação média de chuva para a região. Acompanhou-se a degradação do RSU através de análises do percolado até a fase de fermentação metanogênica. A partir do 250o dia, passou-se a introduzir diferentes doses do agrotóxico Manzateâ 800, sendo três diferentes concentrações em duplicata e dois brancos. O acompanhamento estendeu-se então até os 460 dias. Os resultados de análises do percolado das oito células não apresentaram diferenças estatísticas significativas entre si, antes e depois da aplicação do agrotóxico. Também não foram constatadas mudanças no comportamento da degradação anaeróbia do resíduo ao longo do tempo. As análises de metais realizadas no material sólido coletado ao final do experimento mostraram uma maior concentração de manganês e zinco, metais constituintes do agrotóxico utilizado, nas amostras provenientes dos reatores que receberam cargas do mesmo. Adicionalmente ao experimento, testou-se a influência do Manzateâ 800 em percolado proveniente de célula de aterro sanitário de escala real, também de caráter experimental, contendo apenas RSU. Os testes foram feitos em bateladas, com quatro concentrações diferentes do agrotóxico e um branco e compararam-se as concentrações de DBO5. Os valores obtidos apresentaram diferenças estatísticas significativas, sendo maiores as concentrações de DBO5 das amostras com maior concentração de Manzateâ 800. Tais resultados evidenciam a degradação do agrotóxico pelos microrganismos presentes no percolado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

o presente trabalho tem por objetivo desenvolver um código computacional destinado à simulaçáo numérica tridimensional e de escoamentos compressíveis hipersônicos em especial para analisar o processo de reentrada de veículos espaciais na atmosfera terrestre. Devido ás temperaturas elevadas encontradas neste tipo de escoamento, efeitos de altas temperaturas sáo incluídos, como excitação vibracional das moléculas e reações químícas. Utiliza-se o modelo de 2 temperaturas (translacional e vibracional);5 espécíes (N2, O2, NO, N, O) e 17 reações químicas de Park [1986 para o modelamento do fenômeno termo-químico. Introduz-se uma formulação baseada no método dos elementos finitos, através do esquema de Taylor-Calerkin, para a discretização do tempo e do espaço e para a solução do sistema de equações. Alguns exemplos e aplicações de problemas hipersônicos bi e tridimensionais, difusivos e não difusivos, são apresentados, incluindo comparações entre os resultados obtidos no presente trabalho e na literatura.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudo foi motivado pela possibilidade de se empregar os conhecimentos da engenharia mecânica na solução de problemas de engenharia de alimentos por métodos numéricos, assim como pela utilização da dinâmica dos fluidos computacional (CFD) em mais um campo de pesquisa. A idéia básica foi a aplicação do método de elementos finitos na solução de problemas de escoamentos envolvendo mistura de diferentes componentes. Muitos alimentos apresentam-se como fluidos, e seu comportamento material pode ser newtoniano ou não newtoniano, às vezes descrito por relações constitutivas bastante complexas. Utilizou-se uma teoria de misturas apoiada nos conceitos de mecânica do contínuo para a modelagem mecânica do que se passou a considerar como um sistema multicomponente. Necessitou-se de uma detalhada revisão sobre os postulados clássicos da mecânica para que se pudesse recolocá-los, com alguma segurança e embasamento teórico, para sistemas multicomponentes. Tendo em mãos a modelagem do balanço de momentum e massa em sistemas multicomponentes, pôde-se aproximar estas equações através do método de elementos finitos. A literatura aponta que o método clássico de Galerkin não possui a eficiência necessária para a solução das equações de escoamento, que envolvem uma formulação mista onde se faz necessário tomar compatíveis os subespaços de velocidade e pressão, e também devido à natureza assimétrica da aceleração advectiva, o que também aparece como uma dificuldade na solução de problemas de advecçãodifusão, nos casos de advecção dominante. Assim, fez-se uso do método estabilizado tipo GLS, o qual supera as dificuldades enftentadas pelo método de Galerkin clássico em altos números de Reynolds, adicionando termos dependentes da malha, construídos de forma a aumentar a estabilidade da formulação de Galerkin original sem prejudicar sua consistência. Os resultados numéricos dividem-se em três categorias: problemas de transferência de quantidade de movimento para fluidos newtonianos, problemas de transferência de quantidade de movimento para fluidos com não linearidade material e problemas de advecção e difusão de massa em misturas. A comparação de algumas aproximações obtidas com as de outros autores se mostraram concordantes. A aproximação de problemas de fluidos segundo os modelos Carreau e Casson geraram os resultados esperados. A aproximação de um problema de injeção axial com mistura de dois fluidos produziu resultados coerentes, motivando a aplicação prática da aproximação por métodos estabilizados de problemas de misturas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho estudamos um sistema de equações diferenciais parabólicas que modelam um processo de difusão-reação em duas dimensões da mistura molecular e reação química irreverssível de um só passo entre duas espécies químicas A e B para formar um produto P. Apresentamos resultados analíticos e computacionais relacionados à existência e unicidade da solução, assim como estimativas do erro local e global utilizando elementos finitos. Para os resultados analíticos usamos a teoria de semigrupos e o principio do m´aximo, e a simulação numérica é feita usando diferenças finitas centrais e o esquema simplificado de Ruge-Kutta. As estimativas do erro local para o problema semi-discretizado são estabelecidas usando normas de Sobolev, e para estimar o erro global usamos shadowing finito a posteriori. Os resultados computacionais obtidos mostram que o comportamento da solução está dentro do esperado e concorda com resultados da referências. Assim mesmo as estimativas do erro local e global são obtidas para pequenos intervalos de tempo e assumindo suficiente regularidade sobre a velocidade do fluído no qual realiza-se o processo. Destacamos que a estimativa do erro global usando shadowing finito é obtida sob hipóteses a posteriori sobre o operador do problema e o forte controle da velocidade numa vizinhança suficientemente pequena.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho é proposta uma biblioteca de classes para sistemas de manufatura que visa facilitar a construção de modelos de simulação, permitindo o reuso e a agilizando a modelagaem. A principal característica deste trabalho é sua abordagem que difere da maioria dos trabalhos correlatos na área. Ela baseia-se na utilização de conceitos de produção bastante conhecidos atualemnte, como os roteiros e atividades de produção. Isto permite a criação de novas simulações muito mais rapidamente do que em outras metodologias, já que não são necessárias traduções compelxas entre a realidade e as aplicações simuladas. A biblioteca desenvolvida foi validade com a aplicação dos conceitos à modelagem de uma linha de produção de pontas de eixo para tratores, produzidos pela empresa Pigozzi S/A. ALém disso, o trabalho discute a possibilidade de integração entre a biblioteca de classes proposta e a ferramente de simulação de sistemas de manufatura Automod. A simulação do estudo de caso da linha de produção de pontas de eixo, modelada tanto no Automod quanto na biblioteca de classes proposta, permitiu uma comparação quantitativa, o que viabilizou a validação este trabalho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O avanço tecnológico no projeto de microprocessadores, nos recentes anos, tem seguido duas tendências principais. A primeira tenta aumentar a freqüência do relógio dos mesmos usando componentes digitais e técnicas VLSI mais eficientes. A segunda tenta explorar paralelismo no nível de instrução através da reorganização dos seus componentes internos. Dentro desta segunda abordagem estão as arquiteturas multi-tarefas simultâneas, que são capazes de extrair o paralelismo existente entre e dentro de diferentes tarefas das aplicações, executando instruções de vários fluxos simultaneamente e maximizando assim a utilização do hardware. Apesar do alto custo da implementação em hardware, acredita-se no potencial destas arquiteturas para o futuro próximo, pois é previsto que em breve haverá a disponibilidade de bilhões de transistores para o desenvolvimento de circuitos integrados. Assim, a questão principal a ser encarada talvez seja: como prover instruções paralelas para uma arquitetura deste tipo? Sabe-se que a maioria das aplicações é seqüencial pois os problemas nem sempre possuem uma solução paralela e quando a solução existe os programadores nem sempre têm habilidade para ver a solução paralela. Pensando nestas questões a arquitetura SEMPRE foi projetada. Esta arquitetura executa múltiplos processos, ao invés de múltiplas tarefas, aproveitando assim o paralelismo existente entre diferentes aplicações. Este paralelismo é mais expressivo do que aquele que existe entre tarefas dentro de uma mesma aplicação devido a não existência de sincronismo ou comunicação entre elas. Portanto, a arquitetura SEMPRE aproveita a grande quantidade de processos existentes nas estações de trabalho compartilhadas e servidores de rede. Além disso, esta arquitetura provê suporte de hardware para o escalonamento de processos e instruções especiais para o sistema operacional gerenciar processos com mínimo esforço. Assim, os tempos perdidos com o escalonamento de processos e as trocas de contextos são insignificantes nesta arquitetura, provendo ainda maior desempenho durante a execução das aplicações. Outra característica inovadora desta arquitetura é a existência de um mecanismo de prébusca de processos que, trabalhando em cooperação com o escalonamento de processos, permite reduzir faltas na cache de instruções. Também, devido a essa rápida troca de contexto, a arquitetura permite a definição de uma fatia de tempo (fatia de tempo) menor do que aquela praticada pelo sistema operacional, provendo maior dinâmica na execução das aplicações. A arquitetura SEMPRE foi analisada e avaliada usando modelagem analítica e simulação dirigida por execução de programas do SPEC95. A modelagem mostrou que o escalonamento por hardware reduz os efeitos colaterais causados pela presença de processos na cache de instruções e a simulação comprovou que as diferentes características desta arquitetura podem, juntas, prover ganho de desempenho razoável sobre outras arquiteturas multi-tarefas simultâneas equivalentes, com um pequeno acréscimo de hardware, melhor aproveitando as fatias de tempo atribuídas aos processos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A simulação paralela de eventos é uma área da computação que congrega grande volume de pesquisas, pela importância em facilitar o estudo de novas soluções nas mais diferentes áreas da ciência e tecnologia, sem a necessidade da construção de onerosos protótipos. Diversos protocolos de simulação paralela podem ser encontrados, divididos em dois grandes grupos de acordo com o algoritmo empregado para a execução em ordem dos eventos: os conservadores e os otimistas; contudo, ambos os grupos utilizam trocas de mensagens para a sincronização e comunicação. Neste trabalho, foi desenvolvido um novo protocolo de simulação paralela, fazendo uso de memória compartilhada, o qual foi implementado e testado sobre um ambiente de estações de trabalho, realizando, assim, simulação paralela com uso de memória compartilhada distribuída. O protocolo foi desenvolvido tendo como base de funcionamento os protocolos conservadores; utilizou diversas características dos mesmos, mas introduziu várias mudanças em seu funcionamento. Sua execução assemelha-se às dos protocolos de execução síncrona, utilizando conceitos como o lookahead e janelas de tempo para execução de eventos. A principal mudança que o novo protocolo sofreu foi proporcionada pelo acesso remoto à memória de um LP por outro, produzindo diversas outras nas funções relativas à sincronização dos processos, como o avanço local da simulação e o agendamento de novos eventos oriundos de outro LP. Um ganho adicional obtido foi a fácil resolução do deadlock, um dos grandes problemas dos protocolos conservadores de simulação paralela. A construção de uma interface de comunicação eficiente com uso de memória compartilhada é o principal enfoque do protocolo, sendo, ao final da execução de uma simulação, disponibilizado o tempo de simulação e o tempo de processamento ocioso (quantia utilizada em comunicação e sincronização). Além de uma implementação facilitada, propiciada pelo uso de memória compartilhada ao invés de trocas de mensagens, o protocolo oferece a possibilidade de melhor ocupar o tempo ocioso dos processadores, originado por esperas cada vez que um LP chega a uma barreira de sincronização. Em nenhum momento as modificações efetuadas infringiram o princípio operacional dos protocolos conservadores, que é não possibilitar a ocorrência de erros de causalidade local. O novo protocolo de simulação foi implementado e testado sobre um ambiente multicomputador de memória distribuída, e seus resultados foram comparados com dois outros simuladores, os quais adotaram as mesmas estratégias, com idênticas ferramentas e testados em um mesmo ambiente de execução. Um simulador implementado não utilizou paralelismo, tendo seus resultados sido utilizados como base para medir o speedup e a eficiência do novo protocolo. O outro simulador implementado utilizou um protocolo conservador tradicional, descrito na literatura, realizando as funções de comunicação e sincronização através de trocas de mensagens; serviu para uma comparação direta do desempenho do novo protocolo proposto, cujos resultados foram comparados e analisados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação apresenta uma abordagem para inserção e aplicação da técnica de Simulação Computacional como ferramenta de apoio a análise de decisão no setor hospitalar. Um grupo de onze hospitais foi contemplado diretamente no estudo. O processo de inserção da ferramenta foi implementado em quatro macro etapas. As duas primeiras etapas envolveram a totalidade do grupo de hospitais e objetivaram a divulgação da ferramenta; foram elas: (i) Pesquisa para diagnosticar o conhecimento e interesse do grupo na técnica, e (ii) realização de seminários para divulgação da técnica. As duas macro etapas finais caracterizam um estudo de caso, tendo sido desenvolvidas em um hospital; foram elas: (iii) Estudo-Piloto com desenvolvimento de um modelo computacional utilizando um software dedicado, no qual o grupo do hospital foi treinado, e (iv) utilização do modelo na definição das características de um novo serviço de atendimento. Durante todo o processo onze hospitais participaram da pesquisa realizada, aproximadamente cem pessoas assistiram a pelo menos um dos seminários e um hospital desenvolveu um estudo aplicado de simulação. Neste estudo a simulação foi utilizada para analisar alternativas para uma situação específica no hospital e um novo serviço alternativo foi criado a partir da análise realizada e do modelo desenvolvido. O resultado decorrente da simulação foi implementado na prática. Pode-se constatar neste trabalho o grande interesse dos hospitais em técnicas que auxiliem a tomada de decisão.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apresentar um modelo para simular um sistema de armazenamento de calor no solo em estufas para plasticultura é o objetivo do presente trabalho. O sistema consiste num feixe de tubos enterrados no solo. A convecção forçada de ar no seu interior realiza a troca térmica necessária para manter as estufas sob faixas desejadas de temperatura. O objetivo do modelo é investigar os efeitos no calor armazenado e a influência das variáveis, tais como diâmetro, comprimento, espaçamento entre os tubos e a velocidade de ar no canal provocam no sistema. O solo é tratado como um meio difusivo e avalia-se a contribuição do termo de condensação e evaporação da água contida no ar em escoamento nos tubos. A equação da energia é resolvida para o solo e para o ar. Os tubos de seção transversal circular são modelados como tubos de seção transversal quadrada com o objetivo de que as simulações possam ser processadas em coordenadas cartesianas. O programa resolve situações tridimensionais, transientes e emprega o Método dos Volumes Finitos para integrar as equações diferenciais governantes. O modelo original é baseado no modelo de Gauthier et al., 1997, tendo sido os resultados do mesmo foram usados para a validação do presente estudo. Um circuito de água quente é também projetado e apresentado para o aquecimento das estufas. A água circula através de mangueiras sobre o solo e é aquecida por um sistema de queimadores a gás liqüefeito de petróleo ou óleo combustível, transferindo assim calor para o interior da mesma. O projeto de aquecimento foi realizado através de um programa de parceria entre a Ufrgs, Sebrae, Fapergs e a Agropecuária Clarice.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A preservação e o armazenamento de células e tecidos têm sido utilizados largamente em pesquisa científica e aplicações clínicas. No entanto, há uma aparente contradição entre o conceito de preservaão e as conclusões baseadas em resultados experimentais que materiais biológicos criopreservados podem ser danificados pelo próprio processo de preservação. A compreensão do processo de solidificação de soluções salinas é fundamental para a proposição de novos protocolos de criopreservação. No presente estudo, o congelamento de uma solução de cloreto de sódio a 1% em massa é simulado. As equações de conservação de massa, momentum, energia, e espécies químicas foram discretizadas e resolvidas numericamente utilizando-se o método dos volumes de controle para um domínio bidimensional que contém a parede da bolsa plástica e a solução salina. A perda de água da célula foi calculada a partir da história de temperatura e concentração durante o processo de solidificação e verificou-se que, dependendo da posição inicial da célula na bolsa, a célula tem probabilidades diferentes de sobreviver durante o processo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudo teve por objetivo estimar, pelo modelo CENTURY, a alteração no estoque de carbono orgânico (CO) de solos do Planalto do Rio Grande do Sul durante o período de expansão da agricultura e o potencial de recuperação do estoque de CO através de diferentes sistemas de manejo. Foram utilizados solos de cinco Unidades de Mapeamento (UM), sob vegetação original de campo e floresta: LATOSSOLO VERMELHO Distófico típico (UM Cruz Alta e Passo Fundo), LATOSSOLO VERMELHO Distroférrico típico (UM Santo Ângelo e Erechim) LATOSSOLO BRUNO Alumínico câmbico e (UM Vacaria). Avaliou-se a expansão da agricultura nas UM, a variação no conteúdo de CO dos solos por decomposição microbiana e erosão e a emissão ou seqüestro de CO2 em cenários de manejo com diferentes adições de C, métodos de preparo do solo e perdas de solo por erosão. Durante o período de expansão da agricultura (1900-1980), o uso de sistemas de cultura com baixa adição de C, pousio, queima de resíduos e preparo convencional do solo, ocasionou reduções estimadas de 31 a 45% no estoque original de CO dos solos. Com a melhoria nos eventos de manejo a partir de 1981, houve a recuperação parcial no estoque de CO. Considerando o balanço de CO e CO2 para a região em estudo (52506 km2), o cenário de manejo 1 (PC trigo/soja com queima) apresentou perda total estimada de 159517,0x103 Mg de CO e emissão de 299562,10x103 Mg de CO2 à atmosfera. Nos demais cenários, foram estimados incrementos de CO em relação ao cenário 1, atingindo, em 2050, valores correspondentes a 68,5% (cenário 2 - PR trigo/soja sem queima), 92,7% (cenário 3 - PD trigo/soja, aveia/soja, aveia/milho) e 98,1% (cenário 4 - PD trigo/soja, aveia/milho) do estoque original de CO. Devido a alta adição anual de C (6,0 Mg ha-1) e uso do plantio direto, o cenário 4 apresentou seqüestro líquido de 52173,32x103 Mg de CO2.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Há aproximadamente meio século, as praias situadas a sotamar do Porto do Mucuripe, em Fortaleza, vem sofrendo intensos processos erosivos, creditados em grande parte à construção e ampliação deste porto. O fato é que o acentuado crescimento urbano da capital cearense ocasionou a fixação de dunas e a quebra do fluxo longitudinal de sedimentos em seu litoral, resultando no recuo da linha de costa e na necessidade de intervenção antrópica por meio de obras rígidas que viessem a garantir a preservação da infra-estrutura existente nos trechos mais afetados. Como conseqüência da fixação das praias, o suprimento de material sedimentar passou a ficar retido, enquanto que o potencial de transporte das ondas se preservou. A quebra deste equilíbrio dinâmico acarretou a transferência dos processos erosivos para as praias adjacentes, o que tornou-se um problema cada vez maior, pois as soluções adotadas nestas praias eram idênticas às anteriores. As conseqüências deste processo para uma cidade como Fortaleza, onde o turismo é uma das principais fontes de renda, são graves, dado que como resultado final, encontramos longos trechos de praias com a balneabilidade comprometida e perda de qualidade visual. O litoral situado a oeste da capital é limitado à direita pela foz do Rio Ceará e à esquerda por um promontório rochoso, onde situa-se a Ponta do Pecém. Este trecho compreende aproximadamente 30 km de praias arenosas, com granulometria média e fina, e com ondas incidindo sobre a costa de forma obliqua, o que as torna o principal mecanismo de transporte de sedimentos. A ocupação urbana concentra-se principalmente nas praias mais próximas a Fortaleza, onde observa-se ainda, o afloramento de rochas de praia e grande perda de material sedimentar, fornecendo indícios da transferência dos processos erosivos da orla marítima da capital para estas praias. Com a conclusão das obras do Porto do Pecém e de um pólo industrial que visa desfrutar da localização estratégica deste porto, é natural que ocorra uma intensificação nos processos de ocupação urbana das praias próximas à área. Tal constatação motivou um trabalho de modelagem da dinâmica desta zona com o objetivo de nortear um plano de uso e ocupação das áreas localizadas próximas à praia, de forma que se possa prever o comportamento da linha de costa e evitar que sejam repetidos certos equívocos como a construção em zonas de forte dinâmica e a fixação das fontes primárias de fornecimento de sedimentos, que são as dunas frontais. Dada a disponibilidade de dados, bons processadores e aos custos significativamente reduzidos da modelagem numérica, adotou-se o pacote GENESIS – RCPWAVE, que além de ser de domínio público, é a base do sistema de modelagem de linha de costa adotado pelo CERC (Coastal Engineering Research Center), U.S.A., para aplicações em costa aberta, em regiões sujeitas às intervenções humanas. A calibração do modelo se fez considerando as linhas de praia medidas em 1974 pela DHN e em 2001 com o uso de GPS. Os dados de onda utilizados foram obtidos por um ondógrafo direcional do tipo Waverider, instalado a uma profundidade de 18 metros nas proximidades da Ponta do Pecém. Os dados relativos ao modelo conceitual dos processos predominantes na região, como: contribuições externas, variação granulométrica e variações sazonais de perfis foram obtidos de levantamentos bibliográficos de trabalhos anteriores. Por último, informações relativas às estruturas existentes e seu comportamento, ao afloramento de formações rochosas e o último levantamento da linha de praia, foram obtidas através de trabalhos de campo. De uma forma geral, o comportamento previsto pelo modelo mostrou-se semelhante ao observado nos diferentes levantamentos. Considerando-se as limitações dos processos envolvidos no levantamento de dados, onde tanto a carta da DHN quanto o mapeamento por satélite estão sujeitos a imprecisões e ainda, que a série de dados confiáveis de ondas para a região possuía apenas dois anos, é importante notar que, em linhas gerais, a formulação matemática do modelo representou satisfatoriamente os processos envolvidos. Os resultados fornecidos possibilitam a extrapolação da evolução da linha de costa e indicam pontos de provável recuo ou avanço da praia, norteando a sua ocupação. A ferramenta gerada proporciona ainda a avaliação do impacto de intervenções por meio de estruturas rígidas ou engordamento de praia ao longo do tempo e gera uma estimativa dos valores de deriva litorânea para os diferentes trechos de praia, possibilitando avaliar os efeitos das intervenções nas praias adjacentes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho visa desenvolver um modelo físico e matemático geral para os processos de extração sólido-líquido em fluxos contracorrente cruzados (CCC) que são utilizados na indústria de alimentos. Levam-se em consideração os processos principais (o transporte de massa entre as fases, difusão e convecção) envolvidos por todo o campo de extração, com uma abordagem bidimensional evolutiva, incluindo as zonas de carregamento, drenagem e as bandejas acumuladoras. O modelo matemático é formado por equações diferenciais parciais que determinam a alteração das concentrações nas fases poro e “bulk” em todo o campo de extração e equações diferenciais ordinárias (que refletem as evoluções das concentrações médias nas bandejas). As condições de contorno estabelecem as ligações entre os fluxos CCC da micela e matéria-prima e consideram, também, a influência das zonas de drenagem e carregamento. O algoritmo de resolução utiliza o método de linhas que transforma as equações diferenciais parciais em equações diferenciais ordinárias, que são resolvidas pelo método de Runge-Kutta. Na etapa de validação do modelo foram estabelecidos os parâmetros da malha e o passo de integração, a verificação do código com a lei de conservação da espécie e um único estado estacionário. Também foram realizadas a comparação com os dados experimentais coletados no extrator real e com o método de estágios ideais, a análise da influência de propriedades da matéria-prima nas características principais do modelo, e estabelecidos os dados iniciais do regime básico (regime de operação) Foram realizadas pesquisas numéricas para determinar: os regimes estacionário e transiente, a variação da constante de equilíbrio entre as fases, a variação do número de seções, a alteração da vazão de matéria-prima nas características de um extrator industrial e, também foram realizadas as simulações comparativas para diferentes tipos de matéria-prima (flocos laminados e flocos expandidos) usados amplamente na indústria. Além dessas pesquisas, o modelo também permite simular diferentes tipos de solventes. O estudo da capacidade de produção do extrator revelou que é necessário ter cuidado com o aumento da vazão da matéria-prima, pois um pequeno aumento desta pode causar grandes perdas de óleo tornando alto o custo da produção. Mesmo que ainda seja necessário abastecer o modelo com mais dados experimentais, principalmente da matéria-prima, os resultados obtidos estão em concordância com os fenômenos físico-químicos envolvidos no processo, com a lei de conservação de espécies químicas e com os resultados experimentais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O comportamento hidrológico de grandes bacias envolve a integração da variabilidade espacial e temporal de um grande número de processos. No passado, o desenvolvimento de modelos matemáticos precipitação – vazão, para representar este comportamento de forma simplificada, permitiu dar resposta às questões básicas de engenharia. No entanto, estes modelos não permitiram avaliar os efeitos de modificações de uso do solo e a variabilidade da resposta em grandes bacias. Este trabalho apresenta o desenvolvimento e a validação de um modelo hidrológico distribuído utilizado para representar os processos de transformação de chuva em vazão em grandes bacias hidrográficas (maiores do que 10.000 km2). Uma grade regular de células de algumas dezenas ou centenas de km2 é utilizada pelo modelo para representar os processos de balanço de água no solo; evapotranspiração; escoamentos: superficial, sub-superficial e subterrâneo na célula; e o escoamento na rede de drenagem em toda a bacia hidrográfica. A variabilidade espacial é representada pela distribuição das características da bacia em células regulares ao longo de toda a bacia, e pela heterogeneidade das características no interior de cada célula. O modelo foi aplicado na bacia do rio Taquari Antas, no Rio Grande do Sul, na bacia do rio Taquari, no Mato Grosso do Sul, e na bacia do rio Uruguai, entre Rio Grande do Sul e Santa Catarina. O tamanho destas bacias variou entre, aproximadamente, 30.000 km2 e 75.000 km2. Os parâmetros do modelo foram calibrados de forma manual e automática, utilizando uma metodologia de calibração automática multi-objetivo baseada em um algoritmo genético. O modelo foi validado pela aplicação em períodos de verificação diferentes do período de calibração, em postos fluviométricos não considerados na calibração e pela aplicação em bacias próximas entre si, com características físicas semelhantes. Os resultados são bons, considerando a capacidade do modelo de reproduzir os hidrogramas observados, porém indicam que novas fontes de dados, como os fluxos de evapotranspiração para diferentes coberturas vegetais, serão necessários para a plena utilização do modelo na análise de mudanças de uso do solo.