992 resultados para Simulação Discreta com Componentes Contínuas
Resumo:
Durante a análise sísmica de estruturas complexas, o modelo matemático empregado deveria incluir não só as distribuicões irregulares de massas e de rigidezes senão também à natureza tridimensional da ecitação sísmica. Na prática, o elevado número de graus de liberdade involucrado limita este tipo de análise à disponibilidade de grandes computadoras. Este trabalho apresenta um procedimento simplificado, para avaliar a amplificação do movimento sísmico em camadas de solos. Sua aplicação permitiria estabelecer critérios a partir dos quais avalia-se a necessidade de utilizar modelos de interação solo-estrutura mais complexos que os utilizados habitualmente. O procedimento proposto possui as seguientes características : A- Movimento rígido da rocha definido em termos de três componentes ortagonais. Direção de propagação vertical. B- A ecuação constitutiva do solo inclui as características de não linearidade, plasticidade, dependência da história da carga, dissipação de energia e variação de volume. C- O perfil de solos é dicretizado mediante um sistema de massas concentradas. Utiliza-se uma formulação incremental das equações de movimento com integração directa no domínio do tempo. As propriedades pseudo-elásticas do solo são avaliadas em cada intervalo de integração, em função do estado de tensões resultante da acção simultânea das três componentes da excitação. O correcto funcionamento do procedimento proposto é verificado mediante análises unidimensionais (excitação horizontal) incluindo estudos comparativos com as soluções apresentadas por diversos autores. Similarmente apresentam-se análises tridimensionais (acção simultânea das três componentes da excitação considerando registros sísmicos reais. Analisa-se a influência que possui a dimensão da análise (uma análise tridimensional frente a três análises unidimensionais) na resposta de camadas de solos submetidos a diferentes níveis de exçitação; isto é, a limitação do Princípio de Superposisão de Efeitos.
Resumo:
Nete trabalho é apresentada uma solução analílica para o problema de ordenada discreta unidimensional e multigrupo de transporle de neutrons em simetria planar. A idéia básica da formulação proposta consiste na aplicação da transformada de Laplace na equação de ordenada discreta. Para a solução do sistema linear resultante, uma solução explícila para a matriz lnversa é estabelecida. Dessa forma, o fluxo angular é obtido, por inversão analítica, em termos do fluxo angular em x=O. Essa formulação é aplicada a problemas de domínio finito e semi-infinito. No primeiro caso, os valores de fluxo angular desconhecidos na fronteira em x=O, são determinados a partir dos valores conhecidos do fluxo angular em x=a; no segundo caso é usada a condição de que o fluxo angular é limilado no infinito. Foram tratados problemas homogêneos e heterogêneos para a placa plana com um grupo de neutrons e multigrupo.O problema inverso, que consiste na determinação do fluxo incidente na fronteira a partir de valores do fluxo escalar no interior do domínio, também foi resolvido. Os resullados obtidos para os problemas acima descritos, apresentaram uma boa comparação com os resultados disponíveis na literatura.
Resumo:
Esta dissertação analisa potencialidades de uso da ferramenta de simulação computacional em atividades de um Armazém Geral. Para tanto, foi realizado um estudo de caso em um Armazém Geral onde se aplicou a ferramenta segundo o método de desenvolvimento de projetos de simulação computacional proposto por Barrônio (2000). O desenvolvimento do projeto de simulação foi, então, focado na atividade de apanha separação, integrante do sub-processo de separação de pedidos. O substrato teórico utilizado envolve uma abordagem sobre a logística e caracterização de armazém geral, bem como uma revisão dos conceitos principais da ferramenta de simulação computacional. No desenvolvimento da pesquisa, identificaram-se diversas aplicações da simulação tanto no armazém geral e terminais de cargas da empresa, quanto na análise da malha de rotas da empresa. A partir da análise dos resultados da simulação, em diversos cenários desenvolvidos e do entendimento sistêmico da situação em estudo, identificou-se como oportunidade de melhoria a definição de horários fixos de parada para descanso ao longo da jornada de trabalho na atividade de apanha separação O desenvolvimento do projeto de simulação computacional contribuiu como instrumento de aprendizagem e tomada de decisões sobre a realidade organizacional. Através de experimentação no modelo computacional o grupo de trabalho pôde testar e mudar seus pressupostos e sua compreensão do mundo real, aprimorando a aprendizagem. Identificou-se ainda, que os armazéns gerais dotados de sistema de gerenciamento automatizado apresentam um grande potencial para desenvolvimento de projetos de simulação, principalmente, devido à disponibilidade de dados característicos destas organizações.
Resumo:
Através da utilização de sistemas de controle informatizados, indústrias buscam uma caracterização mais completa de seus processos, gerando, freqüentemente, um grande volume de dados acerca de inúmeras variáveis de desempenho dos processos. Entretanto essa grande massa de dados é subaproveitada, visto que as cartas de controle multivariadas tradicionais, tais como as cartas de Hotelling, MCUSUM e MEWMA não são suficientemente robustas para tratar com um grande número de variáveis correlacionadas, pois foram concebidas para monitorar um número reduzido de variáveis de qualidade do produto final. Diante disso, ferramentas multivariadas mais robustas, que incorporam essas informações, vêm sendo desenvolvidas; dentre estas, destaca-se a Multiway Principal Component Analysis (Análise de Componentes Principais Multidirecionais; ACPM). Neste trabalho, apresenta-se a base teórica para a elaboração de uma carta de controle a partir da estratégia ACPM, para monitoramento on-line de processos em bateladas. Nesses processos, aferições freqüentes de variáveis de processo são disponibilizadas durante a realização de cada batelada. As cartas de controle baseadas em ACPM permitem o tratamento de variáveis autocorrelacionadas, com médias que descrevem trajetórias não lineares se observadas em momentos seqüenciados no tempo. Tais variáveis aparecem com freqüência em processos por bateladas. Uma aplicação das cartas de controle baseadas em ACPM em um sub-processo de produção de borracha para cobertura de pneus ilustra a utilização da ferramenta.
Resumo:
Durante a realização de projetos de sistemas de refrigeração assistidos por sistemas de armazenagem de energia, na forma latente, é necessário que se saiba de antemão as taxas de transferência de energia dos mesmos. Na literatura soluções para este problema são escassos e não abordam todas as geometrias utilizadas para o armazenamento de energia latente, inexistindo correlaçõesmatemáticas que permitam aos projetistas prever o comportamento da fusão e da solidificação do material de mudança de fase (MMF) e as taxas de transferência de energia térmica. Na solução destes problemas são usualmente adotadas hipóteses simplificativas para amenizar o grau de complexidade da descrição matemática do problema Uma destas hipóteses constitui-se em desconsiderar o processo advectivo na transferência de calor no MMF, em sua fase líquida. Outra hipótese adotada, quando o MMF é a água pura, consiste em utilizar um comportamento linear para a massa específica ou um comportamento médio, consistindo em um afastamento da realidade. Este trabalho descreve esforços no sentido de aproximar estas soluções cada vez mais da realidade fisica do problema. São apresentadas simulações para a mudança de fase da água pura levando em conta a inversão da massa específica, em geometria polar, na forma transiente, utilizando o método de Volumes Finitos para solução das equações governantes. As soluções apresentadas, otimizadas quanto às malhas espacial e temporal, envolvem condições de contorno de primeira e terceira espécies Como resultado das soluções são apresentados o Nusselt local, ao longo da parede do cilindro além do Nusselt médio. Correlações matemáticas para o número de Nusselt médio durante a fusão e para o volume de MMF fundido, são propostos e apresentados. A evolução geométrica da fronteira de mudança de fase também é avaliada para as duas condições de contorno e diversos números de Rayleigh. Comparações entre o volume fundido considerando apenas o processo difusivo e o volume fundido utilizando a convecção são realizadas. Para a verificação da independ~encia de malha aplica-se o índice de convergência de malha (GCI) . Algumas comparações qualitativas com soluções experimentais disponíveis na literatura são apresentadas.
Resumo:
A modelagem e desenvolvimento de sistemas embarcados ("embedded systems") de forma distribuída, tende a ser uma tarefa extremamente complexa, especialmente quando envolve sistemas heterogêneos e sincronização de tarefas. Com a utilização do modelo de componentes de software é possível descrever, de uma forma simplificada, todos os elementos de distribuição e de comunicação para este tipo de sistemas. Neste sentido, a especificação de uma ferramenta capaz de auxiliar na modelagem e no desenvolvimento deste tipo de aplicação, certamente irá tornar o trabalho mais simples. Esta dissertação inicia por uma análise comparativa entre as tecnologias passíveis de serem utilizadas na definição de sistemas distribuídos heterogêneos, focando-se principalmente nas metodologias de modelagem, e nos mecanismos e middlewares de comunicação. Dos conceitos formados a partir desta análise é descrita uma ferramenta, baseada em componentes de software. A ferramenta é uma extensão do projeto SIMOO-RT, onde foram adicionados os conceitos de componente de software, biblioteca de componentes e diagrama de implantação. Além disso, foram realizadas modificações no sistema de geração de código, para dar suporte aos novos conceitos da ferramenta. A dissertação termina com a descrição de alguns estudos de caso utilizados para validar a ferramenta.
Resumo:
Para tentar elucidar os efeitos da codisposição de embalagens de agrotóxico no âmbito de um aterro sanitário, foram monitoradas oito células de aterro, em tamanho reduzido. O resíduo sólido urbano utilizado nas oito células foi proveniente do município de Porto Alegre, tendo sido caracterizado antes da montagem do experimento. Os reatores foram submetidos a regas semanais por água, simulando uma situação média de chuva para a região. Acompanhou-se a degradação do RSU através de análises do percolado até a fase de fermentação metanogênica. A partir do 250o dia, passou-se a introduzir diferentes doses do agrotóxico Manzateâ 800, sendo três diferentes concentrações em duplicata e dois brancos. O acompanhamento estendeu-se então até os 460 dias. Os resultados de análises do percolado das oito células não apresentaram diferenças estatísticas significativas entre si, antes e depois da aplicação do agrotóxico. Também não foram constatadas mudanças no comportamento da degradação anaeróbia do resíduo ao longo do tempo. As análises de metais realizadas no material sólido coletado ao final do experimento mostraram uma maior concentração de manganês e zinco, metais constituintes do agrotóxico utilizado, nas amostras provenientes dos reatores que receberam cargas do mesmo. Adicionalmente ao experimento, testou-se a influência do Manzateâ 800 em percolado proveniente de célula de aterro sanitário de escala real, também de caráter experimental, contendo apenas RSU. Os testes foram feitos em bateladas, com quatro concentrações diferentes do agrotóxico e um branco e compararam-se as concentrações de DBO5. Os valores obtidos apresentaram diferenças estatísticas significativas, sendo maiores as concentrações de DBO5 das amostras com maior concentração de Manzateâ 800. Tais resultados evidenciam a degradação do agrotóxico pelos microrganismos presentes no percolado.
Resumo:
o presente trabalho tem por objetivo desenvolver um código computacional destinado à simulaçáo numérica tridimensional e de escoamentos compressíveis hipersônicos em especial para analisar o processo de reentrada de veículos espaciais na atmosfera terrestre. Devido ás temperaturas elevadas encontradas neste tipo de escoamento, efeitos de altas temperaturas sáo incluídos, como excitação vibracional das moléculas e reações químícas. Utiliza-se o modelo de 2 temperaturas (translacional e vibracional);5 espécíes (N2, O2, NO, N, O) e 17 reações químicas de Park [1986 para o modelamento do fenômeno termo-químico. Introduz-se uma formulação baseada no método dos elementos finitos, através do esquema de Taylor-Calerkin, para a discretização do tempo e do espaço e para a solução do sistema de equações. Alguns exemplos e aplicações de problemas hipersônicos bi e tridimensionais, difusivos e não difusivos, são apresentados, incluindo comparações entre os resultados obtidos no presente trabalho e na literatura.
Resumo:
A concorrência nos mercados locais e internacionais tem levado as empresas a tomarem-se cada vez mais competitivas e atentas as mud3nças no mercado, possibilitando-Ihes melhorias em seus processos produtivos. Este trabalho apresenta a modelagem e análise de melhorias no processo produtivo de uma empresa de montagem de câmaras de bronzeamento. A simulação computacional foi utilizada como ferramenta de análise das possíveis oportunidades de melhorias a serem introduzidas no processo produtivo. O processo original foi modelado com o objetivo de identificar e caracterizar a distribuição de tempos e utilização dos equipamentos e rerorsos presentes no processo produtivo da empresa. Diferentes propostas de melhorias foram investigadas e uma nova modelagem do processo foi sugerida, considerando exigências do mercado e características do processo produtivo empresarial. Comparações matemáticas entre os resultados foram elaboradas e as conclusões sobre o estudo são apresentadas ao final do trabalho. Os resultados da simulação estão sendo usados para avaliar possíveis alterações no processo produtivo da empresa, bem como para gerar documentos que registram conhecimento corporativo sobre possíveis arranjos na produção.
Resumo:
Neste trabalho estudamos um sistema de equações diferenciais parabólicas que modelam um processo de difusão-reação em duas dimensões da mistura molecular e reação química irreverssível de um só passo entre duas espécies químicas A e B para formar um produto P. Apresentamos resultados analíticos e computacionais relacionados à existência e unicidade da solução, assim como estimativas do erro local e global utilizando elementos finitos. Para os resultados analíticos usamos a teoria de semigrupos e o principio do m´aximo, e a simulação numérica é feita usando diferenças finitas centrais e o esquema simplificado de Ruge-Kutta. As estimativas do erro local para o problema semi-discretizado são estabelecidas usando normas de Sobolev, e para estimar o erro global usamos shadowing finito a posteriori. Os resultados computacionais obtidos mostram que o comportamento da solução está dentro do esperado e concorda com resultados da referências. Assim mesmo as estimativas do erro local e global são obtidas para pequenos intervalos de tempo e assumindo suficiente regularidade sobre a velocidade do fluído no qual realiza-se o processo. Destacamos que a estimativa do erro global usando shadowing finito é obtida sob hipóteses a posteriori sobre o operador do problema e o forte controle da velocidade numa vizinhança suficientemente pequena.
Resumo:
O avanço tecnológico no projeto de microprocessadores, nos recentes anos, tem seguido duas tendências principais. A primeira tenta aumentar a freqüência do relógio dos mesmos usando componentes digitais e técnicas VLSI mais eficientes. A segunda tenta explorar paralelismo no nível de instrução através da reorganização dos seus componentes internos. Dentro desta segunda abordagem estão as arquiteturas multi-tarefas simultâneas, que são capazes de extrair o paralelismo existente entre e dentro de diferentes tarefas das aplicações, executando instruções de vários fluxos simultaneamente e maximizando assim a utilização do hardware. Apesar do alto custo da implementação em hardware, acredita-se no potencial destas arquiteturas para o futuro próximo, pois é previsto que em breve haverá a disponibilidade de bilhões de transistores para o desenvolvimento de circuitos integrados. Assim, a questão principal a ser encarada talvez seja: como prover instruções paralelas para uma arquitetura deste tipo? Sabe-se que a maioria das aplicações é seqüencial pois os problemas nem sempre possuem uma solução paralela e quando a solução existe os programadores nem sempre têm habilidade para ver a solução paralela. Pensando nestas questões a arquitetura SEMPRE foi projetada. Esta arquitetura executa múltiplos processos, ao invés de múltiplas tarefas, aproveitando assim o paralelismo existente entre diferentes aplicações. Este paralelismo é mais expressivo do que aquele que existe entre tarefas dentro de uma mesma aplicação devido a não existência de sincronismo ou comunicação entre elas. Portanto, a arquitetura SEMPRE aproveita a grande quantidade de processos existentes nas estações de trabalho compartilhadas e servidores de rede. Além disso, esta arquitetura provê suporte de hardware para o escalonamento de processos e instruções especiais para o sistema operacional gerenciar processos com mínimo esforço. Assim, os tempos perdidos com o escalonamento de processos e as trocas de contextos são insignificantes nesta arquitetura, provendo ainda maior desempenho durante a execução das aplicações. Outra característica inovadora desta arquitetura é a existência de um mecanismo de prébusca de processos que, trabalhando em cooperação com o escalonamento de processos, permite reduzir faltas na cache de instruções. Também, devido a essa rápida troca de contexto, a arquitetura permite a definição de uma fatia de tempo (fatia de tempo) menor do que aquela praticada pelo sistema operacional, provendo maior dinâmica na execução das aplicações. A arquitetura SEMPRE foi analisada e avaliada usando modelagem analítica e simulação dirigida por execução de programas do SPEC95. A modelagem mostrou que o escalonamento por hardware reduz os efeitos colaterais causados pela presença de processos na cache de instruções e a simulação comprovou que as diferentes características desta arquitetura podem, juntas, prover ganho de desempenho razoável sobre outras arquiteturas multi-tarefas simultâneas equivalentes, com um pequeno acréscimo de hardware, melhor aproveitando as fatias de tempo atribuídas aos processos.
Resumo:
A simulação paralela de eventos é uma área da computação que congrega grande volume de pesquisas, pela importância em facilitar o estudo de novas soluções nas mais diferentes áreas da ciência e tecnologia, sem a necessidade da construção de onerosos protótipos. Diversos protocolos de simulação paralela podem ser encontrados, divididos em dois grandes grupos de acordo com o algoritmo empregado para a execução em ordem dos eventos: os conservadores e os otimistas; contudo, ambos os grupos utilizam trocas de mensagens para a sincronização e comunicação. Neste trabalho, foi desenvolvido um novo protocolo de simulação paralela, fazendo uso de memória compartilhada, o qual foi implementado e testado sobre um ambiente de estações de trabalho, realizando, assim, simulação paralela com uso de memória compartilhada distribuída. O protocolo foi desenvolvido tendo como base de funcionamento os protocolos conservadores; utilizou diversas características dos mesmos, mas introduziu várias mudanças em seu funcionamento. Sua execução assemelha-se às dos protocolos de execução síncrona, utilizando conceitos como o lookahead e janelas de tempo para execução de eventos. A principal mudança que o novo protocolo sofreu foi proporcionada pelo acesso remoto à memória de um LP por outro, produzindo diversas outras nas funções relativas à sincronização dos processos, como o avanço local da simulação e o agendamento de novos eventos oriundos de outro LP. Um ganho adicional obtido foi a fácil resolução do deadlock, um dos grandes problemas dos protocolos conservadores de simulação paralela. A construção de uma interface de comunicação eficiente com uso de memória compartilhada é o principal enfoque do protocolo, sendo, ao final da execução de uma simulação, disponibilizado o tempo de simulação e o tempo de processamento ocioso (quantia utilizada em comunicação e sincronização). Além de uma implementação facilitada, propiciada pelo uso de memória compartilhada ao invés de trocas de mensagens, o protocolo oferece a possibilidade de melhor ocupar o tempo ocioso dos processadores, originado por esperas cada vez que um LP chega a uma barreira de sincronização. Em nenhum momento as modificações efetuadas infringiram o princípio operacional dos protocolos conservadores, que é não possibilitar a ocorrência de erros de causalidade local. O novo protocolo de simulação foi implementado e testado sobre um ambiente multicomputador de memória distribuída, e seus resultados foram comparados com dois outros simuladores, os quais adotaram as mesmas estratégias, com idênticas ferramentas e testados em um mesmo ambiente de execução. Um simulador implementado não utilizou paralelismo, tendo seus resultados sido utilizados como base para medir o speedup e a eficiência do novo protocolo. O outro simulador implementado utilizou um protocolo conservador tradicional, descrito na literatura, realizando as funções de comunicação e sincronização através de trocas de mensagens; serviu para uma comparação direta do desempenho do novo protocolo proposto, cujos resultados foram comparados e analisados.