976 resultados para Simulação de processos


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Apresenta-se um modelo de advecção-difusão do tipo Lagrangeano para a simulação da dispersão de massas de água provenientes de fontes pontuais e descreve-se o modelo hidrodinâmico usado na simulação do escoamento. Estes modelos são utilizados para a caracterização hidrodinâmica da Ria Formosa do ponto de vista da qualidade da água. Tentam-se encontrar razões para os problemas associados aos viveiros de bivalves, sugerindo-se formas de melhorar a qualidade da água.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tese de dout., Ciências e Tecnologias do Ambiente (Modelação Ambiental), Univ. do Algarve, 1999

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação para obtenção do grau de Mestre em Engenharia Civil na Área de Especialização de Vias de Comunicação e Transportes

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Mecânica

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Mestrado em Engenharia Química - Ramo Optimização Energética na Indústria Química

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Atualmente a vantagem competitiva de uma empresa passa pela sua rápida adaptação às variações de procura do mercado, sendo necessário garantir elevados níveis de produtividade e, simultaneamente, grande flexibilidade, indispensável ao fabrico de pequenos lotes. A necessidade de ajuste do processo e a diminuição da média de vida do produto levam a paragens cada vez mais frequentes da célula de fabrico para programação e afinação, com consequentes perdas de produtividade. De forma a dar resposta a estes problemas, neste trabalho é testada a viabilidade da utilização da programação e simulação offline de tarefas de lixamento na Grohe Portugal, complementando a solução com o desenvolvimento de um novo método de afinação do programa, permitindo uma adaptação às flutuações do processo produtivo. Para isso foi necessário analisar o estado da arte dos robôs industriais na área de acabamento superficial e respetivos métodos de programação. Em seguida, após um trabalho prévio rigoroso de preparação e modelação da célula de trabalho, é possível fazer a programação offline das várias rotinas e trajetórias complexas que compõem um ciclo de lixamento de um produto, contribuindo para o aumento da qualidade do produto final sem comprometer os níveis de produtividade. Nesta dissertação são descritos e detalhados alguns dos procedimentos fulcrais no sucesso da aplicação deste método de programação. Por último é feita uma nova abordagem ao método de ajuste ponto-a-ponto convencional, desenvolvendo-se para isso um sistema de ajuste automático do programa, dotando o robô da capacidade de se adaptar às variações do processo, assegurando a consistência do mesmo. Foram realizados testes em pequena escala, extrapolando-se os resultados para a aplicação deste novo método no processo produtivo da Grohe Portugal, como forma de complemento ao método convencional de ajuste ponto-a-ponto do programa, reduzindo o tempo de paragem da célula de trabalho.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A concorrência nos mercados locais e internacionais tem levado as empresas a tomarem-se cada vez mais competitivas e atentas as mud3nças no mercado, possibilitando-Ihes melhorias em seus processos produtivos. Este trabalho apresenta a modelagem e análise de melhorias no processo produtivo de uma empresa de montagem de câmaras de bronzeamento. A simulação computacional foi utilizada como ferramenta de análise das possíveis oportunidades de melhorias a serem introduzidas no processo produtivo. O processo original foi modelado com o objetivo de identificar e caracterizar a distribuição de tempos e utilização dos equipamentos e rerorsos presentes no processo produtivo da empresa. Diferentes propostas de melhorias foram investigadas e uma nova modelagem do processo foi sugerida, considerando exigências do mercado e características do processo produtivo empresarial. Comparações matemáticas entre os resultados foram elaboradas e as conclusões sobre o estudo são apresentadas ao final do trabalho. Os resultados da simulação estão sendo usados para avaliar possíveis alterações no processo produtivo da empresa, bem como para gerar documentos que registram conhecimento corporativo sobre possíveis arranjos na produção.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O avanço tecnológico no projeto de microprocessadores, nos recentes anos, tem seguido duas tendências principais. A primeira tenta aumentar a freqüência do relógio dos mesmos usando componentes digitais e técnicas VLSI mais eficientes. A segunda tenta explorar paralelismo no nível de instrução através da reorganização dos seus componentes internos. Dentro desta segunda abordagem estão as arquiteturas multi-tarefas simultâneas, que são capazes de extrair o paralelismo existente entre e dentro de diferentes tarefas das aplicações, executando instruções de vários fluxos simultaneamente e maximizando assim a utilização do hardware. Apesar do alto custo da implementação em hardware, acredita-se no potencial destas arquiteturas para o futuro próximo, pois é previsto que em breve haverá a disponibilidade de bilhões de transistores para o desenvolvimento de circuitos integrados. Assim, a questão principal a ser encarada talvez seja: como prover instruções paralelas para uma arquitetura deste tipo? Sabe-se que a maioria das aplicações é seqüencial pois os problemas nem sempre possuem uma solução paralela e quando a solução existe os programadores nem sempre têm habilidade para ver a solução paralela. Pensando nestas questões a arquitetura SEMPRE foi projetada. Esta arquitetura executa múltiplos processos, ao invés de múltiplas tarefas, aproveitando assim o paralelismo existente entre diferentes aplicações. Este paralelismo é mais expressivo do que aquele que existe entre tarefas dentro de uma mesma aplicação devido a não existência de sincronismo ou comunicação entre elas. Portanto, a arquitetura SEMPRE aproveita a grande quantidade de processos existentes nas estações de trabalho compartilhadas e servidores de rede. Além disso, esta arquitetura provê suporte de hardware para o escalonamento de processos e instruções especiais para o sistema operacional gerenciar processos com mínimo esforço. Assim, os tempos perdidos com o escalonamento de processos e as trocas de contextos são insignificantes nesta arquitetura, provendo ainda maior desempenho durante a execução das aplicações. Outra característica inovadora desta arquitetura é a existência de um mecanismo de prébusca de processos que, trabalhando em cooperação com o escalonamento de processos, permite reduzir faltas na cache de instruções. Também, devido a essa rápida troca de contexto, a arquitetura permite a definição de uma fatia de tempo (fatia de tempo) menor do que aquela praticada pelo sistema operacional, provendo maior dinâmica na execução das aplicações. A arquitetura SEMPRE foi analisada e avaliada usando modelagem analítica e simulação dirigida por execução de programas do SPEC95. A modelagem mostrou que o escalonamento por hardware reduz os efeitos colaterais causados pela presença de processos na cache de instruções e a simulação comprovou que as diferentes características desta arquitetura podem, juntas, prover ganho de desempenho razoável sobre outras arquiteturas multi-tarefas simultâneas equivalentes, com um pequeno acréscimo de hardware, melhor aproveitando as fatias de tempo atribuídas aos processos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho de conclusão investiga o efeito da geração de estoques intermediários nos indicadores principais empregados na Teoria das Restrições (Ganho, Despesa Operacional e Inventário) em uma unidade industrial de processo produtivo de Propriedade contínuo, que emprega embalagens, matérias-primas obtidas em larga escala e cadeias logísticas de longo curso. Este tipo de indústria produz bens de consumo imediato, com pouca variabilidade, de modo “empurrado”. A principal conseqüência é a perda do sincronismo na cadeia logística, resultando em uma grande quantidade de estoques intermediários e custos crescentes, relacionados principalmente ao custo de manutenção destes estoques. Através dos cinco passos de focalização e das ferramentas lógicas da Teoria das Restrições, propõe-se uma alternativa gerencial, que inclui o algoritmo Tambor-Pulmão-Corda e insere a organização em um processo de melhoria contínua, cujos impactos são avaliados por simulação computacional. Através de técnicas estatísticas e software apropriados, constrói-se um modelo de simulação computacional baseado em dados reais de uma planta produtora de cimento. A partir deste modelo, diferentes cenários são testados, descobrindo-se a condição ótima. Chega-se a uma conclusão, considerando a mudança na política de geração de estoques intermediários e seus impactos na redução de custos e riscos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A simulação paralela de eventos é uma área da computação que congrega grande volume de pesquisas, pela importância em facilitar o estudo de novas soluções nas mais diferentes áreas da ciência e tecnologia, sem a necessidade da construção de onerosos protótipos. Diversos protocolos de simulação paralela podem ser encontrados, divididos em dois grandes grupos de acordo com o algoritmo empregado para a execução em ordem dos eventos: os conservadores e os otimistas; contudo, ambos os grupos utilizam trocas de mensagens para a sincronização e comunicação. Neste trabalho, foi desenvolvido um novo protocolo de simulação paralela, fazendo uso de memória compartilhada, o qual foi implementado e testado sobre um ambiente de estações de trabalho, realizando, assim, simulação paralela com uso de memória compartilhada distribuída. O protocolo foi desenvolvido tendo como base de funcionamento os protocolos conservadores; utilizou diversas características dos mesmos, mas introduziu várias mudanças em seu funcionamento. Sua execução assemelha-se às dos protocolos de execução síncrona, utilizando conceitos como o lookahead e janelas de tempo para execução de eventos. A principal mudança que o novo protocolo sofreu foi proporcionada pelo acesso remoto à memória de um LP por outro, produzindo diversas outras nas funções relativas à sincronização dos processos, como o avanço local da simulação e o agendamento de novos eventos oriundos de outro LP. Um ganho adicional obtido foi a fácil resolução do deadlock, um dos grandes problemas dos protocolos conservadores de simulação paralela. A construção de uma interface de comunicação eficiente com uso de memória compartilhada é o principal enfoque do protocolo, sendo, ao final da execução de uma simulação, disponibilizado o tempo de simulação e o tempo de processamento ocioso (quantia utilizada em comunicação e sincronização). Além de uma implementação facilitada, propiciada pelo uso de memória compartilhada ao invés de trocas de mensagens, o protocolo oferece a possibilidade de melhor ocupar o tempo ocioso dos processadores, originado por esperas cada vez que um LP chega a uma barreira de sincronização. Em nenhum momento as modificações efetuadas infringiram o princípio operacional dos protocolos conservadores, que é não possibilitar a ocorrência de erros de causalidade local. O novo protocolo de simulação foi implementado e testado sobre um ambiente multicomputador de memória distribuída, e seus resultados foram comparados com dois outros simuladores, os quais adotaram as mesmas estratégias, com idênticas ferramentas e testados em um mesmo ambiente de execução. Um simulador implementado não utilizou paralelismo, tendo seus resultados sido utilizados como base para medir o speedup e a eficiência do novo protocolo. O outro simulador implementado utilizou um protocolo conservador tradicional, descrito na literatura, realizando as funções de comunicação e sincronização através de trocas de mensagens; serviu para uma comparação direta do desempenho do novo protocolo proposto, cujos resultados foram comparados e analisados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O comportamento hidrológico de grandes bacias envolve a integração da variabilidade espacial e temporal de um grande número de processos. No passado, o desenvolvimento de modelos matemáticos precipitação – vazão, para representar este comportamento de forma simplificada, permitiu dar resposta às questões básicas de engenharia. No entanto, estes modelos não permitiram avaliar os efeitos de modificações de uso do solo e a variabilidade da resposta em grandes bacias. Este trabalho apresenta o desenvolvimento e a validação de um modelo hidrológico distribuído utilizado para representar os processos de transformação de chuva em vazão em grandes bacias hidrográficas (maiores do que 10.000 km2). Uma grade regular de células de algumas dezenas ou centenas de km2 é utilizada pelo modelo para representar os processos de balanço de água no solo; evapotranspiração; escoamentos: superficial, sub-superficial e subterrâneo na célula; e o escoamento na rede de drenagem em toda a bacia hidrográfica. A variabilidade espacial é representada pela distribuição das características da bacia em células regulares ao longo de toda a bacia, e pela heterogeneidade das características no interior de cada célula. O modelo foi aplicado na bacia do rio Taquari Antas, no Rio Grande do Sul, na bacia do rio Taquari, no Mato Grosso do Sul, e na bacia do rio Uruguai, entre Rio Grande do Sul e Santa Catarina. O tamanho destas bacias variou entre, aproximadamente, 30.000 km2 e 75.000 km2. Os parâmetros do modelo foram calibrados de forma manual e automática, utilizando uma metodologia de calibração automática multi-objetivo baseada em um algoritmo genético. O modelo foi validado pela aplicação em períodos de verificação diferentes do período de calibração, em postos fluviométricos não considerados na calibração e pela aplicação em bacias próximas entre si, com características físicas semelhantes. Os resultados são bons, considerando a capacidade do modelo de reproduzir os hidrogramas observados, porém indicam que novas fontes de dados, como os fluxos de evapotranspiração para diferentes coberturas vegetais, serão necessários para a plena utilização do modelo na análise de mudanças de uso do solo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O uso da mecânica de fluidos computacional no estudo de processos envolvendo o escoamento de fluidos poliméricos está cada vez mais presente nas indústrias de transformação de polímeros. Um código computacional voltado a esta função, para que possa ser aplicado com sucesso, deve levar a predições mais próximas possível da realidade (modelagem), de uma forma relativamente rápida e eficiente (simulação). Em relação à etapa de modelagem, o ponto chave é a seleção de uma equação constitutiva que represente bem as características reológicas do fluido, dentre as diversas opções existentes. Para a etapa de simulação, ou seja, a resolução numérica das equações do modelo, existem diversas metodologias encontradas na literatura, cada qual com suas vantagens e desvantagens. Neste tópico se enquadra o trabalho em questão, que propõe uma nova metodologia para a resolução das equações governantes do escoamento de fluidos viscoelásticos. Esta se baseia no método dos volumes finitos, usando o arranjo co-localizado para as variáveis do problema, e na utilização de aproximações de alta ordem para os fluxos médios lineares e não-lineares e para outros termos não lineares que surgem da discretização das equações constitutivas. Nesta metodologia, trabalha-se com os valores médios das variáveis nos volumes durante todo o processo de resolução, sendo que os valores pontuais são obtidos ao final do procedimento via deconvolução. A solução do sistema de equações não lineares, resultante da discretização das equações, é feita de forma simultânea, usando o método de Newton São mostrados então, resultados da aplicação da metodologia proposta em problemas envolvendo escoamentos de fluidos newtonianos e fluidos viscoelásticos. Para descrever o comportamento reológico destes últimos, são usadas duas equações constitutivas, que são o modelo de Oldroyd-B e o modelo de Phan-Thien-Tanner Simplificado. Por estes resultados pode-se ver que a metodologia é muito promissora, apresentando algumas vantagens frente às metodologias convencionais em volumes finitos. A implementação atual da metodologia desenvolvida está restrita a malhas uniformes e, consequentemente, soluções para problemas com geometrias complexas, que necessitam de refinamento localizado da malha, foram obtidas somente para baixos números de Weissenberg, devido a limitação do custo computacional. Esta restrição pode ser contornada, tornando o seu uso competitivo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho tem como objetivo o desenvolvimento de um modelo dinâmico genérico para reatores de polimerização em leito fluidizado com capacidade de predizer produção, condições de operação e propriedades do produto, como o índice de fluidez e densidade. Este modelo genérico é então aplicado ao caso específico da polimerização de eteno em reatores do processo UNIPOL, utilizando catalisador de óxido de cromo. De modo a obter um modelo validado, os parâmetros cinéticos são estimados utilizando experimentos realizados em uma planta piloto UNIPOL. Também é apresentado um modelo simplificado em relação ao modelo proposto inicialmente, cujo objetivo é remover as interações dos parâmetros das malhas de controle com os parâmetros cinéticos a serem estimados, aproveitando medidas de planta não utilizadas pelo outro modelo. Junto com a parte de estimação de parâmetros é apresentada a metodologia da análise de sensibilidade para o planejamento de experimentos e estimação de parâmetros.