987 resultados para Simulação de eventos discretos
Resumo:
[ES]En este trabajo se han analizado las tendencias de las temperaturas extremas y los eventos extremos en la Cornisa Cantábrica a partir de los registros diarios de catorce observatorios de la base de datos NCDC-GSOD (1973-2014) y cuatro observatorios centenarios también situados en esta región de ECA&D (1928-2014). Para ello, se han calculado los índices climáticos desarrollados por el ETCCDMI y se ha cuantificado la significación de las tendencias mediante el test de Mann-Kendall. Se ha observado un ascenso de las temperaturas extremas y eventos extremos en la mayoría de las estaciones, siendo el aumento más acusado a lo largo de los últimos cuarenta años
Resumo:
As ferramentas computacionais estão apoiando, de maneira crescente, o processo de ensino e aprendizagem em diversas áreas. Elas aumentam as possibilidades do docente para ministrar um conteúdo e interagir com seus alunos. Neste grupo de ferramentas estão as simulações baseadas em sistemas multiagentes. Neste contexto, este trabalho tem como objetivo apresentar um ambiente de simulação do crescimento populacional de uma colmeia para o ensino de Biologia. As variáveis do sistema podem ser alteradas visando analisar os diferentes resultados obtidos. Aspectos como duração e tempo da florada das plantações, conhecidos como campos de flores, podem ser manipulados pelo aluno. A abordagem multiagentes em Inteligência Artificial Distribuída foi a solução escolhida, para que o controle das atividades do aplicativo fosse feito de maneira automatizada. A Realidade Virtual foi utilizada para acrescentar aspectos importantes do processo que não podem ser visualizados pela simulação matemática. Uma síntese da utilização de tecnologias na educação, em especial da Informática, é discutida no trabalho. Aspectos da aplicação no ensino de Biologia são apresentados, assim como resultados iniciais de sua utilização.
Resumo:
O estudo de eventos amparado em métricas contábeis pode ser considerado como aquele que investiga se os retornos anormais no mercado acionário possuem uma contrapartida no lado real, ou seja, se a performance operacional da firma sofreu modificação decorrente de um determinado evento econômico. O presente estudo tem como foco as escolhas que um pesquisador deve fazer na hora da modelagem de um estudo de evento amparado em métricas contábeis, tais como: que medida de performance utilizar, que modelo de expectativa de performance operacional servirá como benchmark, e que teste estatístico poderia detectar com mais eficiência as anormalidades. Um exemplo de estudo que testa empiricamente, nos EUA, o efeito das escolhas acima nas especificações e poder dos testes estatísticos é o de Barber e Lyon (1996). O presente trabalho pretende testar empiricamente os modelos, analisados por esses autores, nas empresas brasileiras. Para tal, foram extraídas da base de dados da Economática todas as empresas listadas na Bolsa de Valores de São Paulo BOVESPA, com dados contábeis disponíveis para os anos de 2004 a 2010, sendo que foram objeto de análise os anos de 2005 a 2010. Obtiveram-se dados para 605 empresas, e uma média de 1606 observações por métrica contábil. Foram testadas 6 medidas contábeis de performance operacional e 13 modelos de expectativa de desempenho. Para atingir o objetivo, a pesquisa foi dividida em três fases. Fase I Elaboração dos Modelos de Expectativa e formação dos Grupos de Controle; Fase II Teste do Poder explicativo dos Modelos de Expectativa; Fase III Testes para Detectar Performance Operacional Anormal. Para o caso brasileiro, pode-se dizer que a melhor medida para detectar performances operacionais anormais é o ROA2 (Ebitda/Ativo Total), já que foi a que apresentou mais modelos que atenderam a todos os testes estabelecidos, em todas as fases da pesquisa. Quanto ao benchmark, o melhor apontado pelos resultados foi o filtro indústria, classificação Economática. O modelo de desempenho defasado da firma, também apresentou resultados satisfatórios. Por fim, o teste estatístico mais apropriado para detectar performances operacionais anormais é o de Wilcoxon.
Resumo:
Neste trabalho é apresentado o desenvolvimento de um programa computacional que simula o desempenho térmico de um sistema de aquecimento solar de água com circulação forçada, adequado para uso em edificações. O programa trabalha realizando o balanço de massa e de energia no reservatório térmico a cada hora, tendo como valores de entrada dados do ano meteorológico típico da localidade selecionada e a vazão de água quente de consumo. Os componentes do sistema são o reservatório térmico de água quente com aquecedor auxiliar interno, o coletor solar e a bomba de circulação. A base de dados meteorológicos escolhida foi a do projeto SWERA, que contém arquivos no formato padrão TMY disponíveis na internet para um número considerável de cidades, incluindo diversas localidades brasileiras. Foi proposto um modelo de temperatura de água da rede de abastecimento relacionado com a temperatura do solo, dado disponível nos arquivos de entrada utilizados. O programa utilizou como referência para a validação dos modelos de cálculo resultados obtidos pelo programa comercial de simulação TRNSYS. Foram comparados resultados para os modelos de irradiação incidente em superfície inclinada, do coletor solar e do sistema completo. Para isto foram simulados sistemas localizados em quatro cidades distintas com climas diferentes. O tempo total usado nas simulações foi de um ano e os resultados das comparações dos valores resultantes foram considerados satisfatórios.
Resumo:
O objetivo deste trabalho é tratar da simulação do fenômeno de propagação de ondas em uma haste heterogênea elástico, composta por dois materiais distintos (um linear e um não-linear), cada um deles com a sua própria velocidade de propagação da onda. Na interface entre estes materiais existe uma descontinuidade, um choque estacionário, devido ao salto das propriedades físicas. Empregando uma abordagem na configuração de referência, um sistema não-linear hiperbólico de equações diferenciais parciais, cujas incógnitas são a velocidade e a deformação, descrevendo a resposta dinâmica da haste heterogénea. A solução analítica completa do problema de Riemann associado são apresentados e discutidos.
Resumo:
Nesse trabalho, foi desenvolvido um simulador numérico (C/C++) para a resolução de escoamentos de fluidos newtonianos incompressíveis, baseado no método de partículas Lagrangiano, livre de malhas, Smoothed Particle Hydrodynamics (SPH). Tradicionalmente, duas estratégias são utilizadas na determinação do campo de pressões de forma a garantir-se a condição de incompressibilidade do fluido. A primeira delas é a formulação chamada Weak Compressible Smoothed Particle Hydrodynamics (WCSPH), onde uma equação de estado para um fluido quase-incompressível é utilizada na determinação do campo de pressões. A segunda, emprega o Método da Projeção e o campo de pressões é obtido mediante a resolução de uma equação de Poisson. No estudo aqui desenvolvido, propõe-se três métodos iterativos, baseados noMétodo da Projeção, para o cálculo do campo de pressões, Incompressible Smoothed Particle Hydrodynamics (ISPH). A fim de validar os métodos iterativos e o código computacional, foram simulados dois problemas unidimensionais: os escoamentos de Couette entre duas placas planas paralelas infinitas e de Poiseuille em um duto infinito e foram usadas condições de contorno do tipo periódicas e partículas fantasmas. Um problema bidimensional, o escoamento no interior de uma cavidade com a parede superior posta em movimento, também foi considerado. Na resolução deste problema foi utilizado o reposicionamento periódico de partículas e partículas fantasmas.
Resumo:
O presente trabalho trata do escoamento bifásico em meios porosos heterogêneos de natureza fractal, onde os fluidos são considerados imiscíveis. Os meios porosos são modelados pela equação de Kozeny-Carman Generalizada (KCG), a qual relaciona a porosidade com a permeabilidade do meio através de uma nova lei de potência. Esta equação proposta por nós é capaz de generalizar diferentes modelos existentes na literatura e, portanto, é de uso mais geral. O simulador numérico desenvolvido aqui emprega métodos de diferenças finitas. A evolução temporal é baseada em um esquema de separação de operadores que segue a estratégia clássica chamada de IMPES. Assim, o campo de pressão é calculado implicitamente, enquanto que a equação da saturação da fase molhante é resolvida explicitamente em cada nível de tempo. O método de otimização denominado de DFSANE é utilizado para resolver a equação da pressão. Enfatizamos que o DFSANE nunca foi usado antes no contexto de simulação de reservatórios. Portanto, o seu uso aqui é sem precedentes. Para minimizar difusões numéricas, a equação da saturação é discretizada por um esquema do tipo "upwind", comumente empregado em simuladores numéricos para a recuperação de petróleo, o qual é resolvido explicitamente pelo método Runge-Kutta de quarta ordem. Os resultados das simulações são bastante satisfatórios. De fato, tais resultados mostram que o modelo KCG é capaz de gerar meios porosos heterogêneos, cujas características permitem a captura de fenômenos físicos que, geralmente, são de difícil acesso para muitos simuladores em diferenças finitas clássicas, como o chamado fenômeno de dedilhamento, que ocorre quando a razão de mobilidade (entre as fases fluidas) assume valores adversos. Em todas as simulações apresentadas aqui, consideramos que o problema imiscível é bidimensional, sendo, portanto, o meio poroso caracterizado por campos de permeabilidade e de porosidade definidos em regiões Euclideanas. No entanto, a teoria abordada neste trabalho não impõe restrições para sua aplicação aos problemas tridimensionais.
Resumo:
A previsão do comportamento de resíduos constituiu-se em um desafio geotécnico, uma vez que estes materiais apresentam uma resposta distinta dos materiais usualmente encontrados em depósitos naturais. A análise dos recalques da fundação, decorrentes da sobrecarga imposta pelo alteamento, é complexa, tendo em vista que o adensamento de resíduos pressupõe grandes deformações, invalidando o uso de teorias clássicas de adensamento. Atualmente, no Brasil, a técnica de disposição de resíduos de bauxita prevê uma operação inicial de lançamento no interior de lagos artificiais, em forma de polpa. Após o esgotamento do lago e ressecamento do resíduo, inicia-se o lançamento pelo método a montante. Neste método, a polpa é lançada sobre o resíduo pré-existente, que se encontra em processo de adensamento. O presente trabalho tem como objetivo reproduzir numericamente o comportamento de áreas de resíduos durante a etapa de alteamento a montante. A pesquisa tem como enfoque 2 áreas de resíduos de bauxita. Uma delas encontra-se em fase de reabilitação e dispõe de instrumentação de campo (recalques e deslocamentos horizontais). A outra se encontra em fase de operação do alteamento e dispõe de dados experimentais. Desta forma, a metodologia consistiu na reprodução numérica do processo de alteamento da área instrumentada e comparação dos resultados com a instrumentação de campo, com objetivo de avaliar o modelo numérico e os parâmetros do resíduo. Posteriormente, realizou-se a previsão do comportamento do resíduo de fundação da área em fase de alteamento. Os parâmetros geotécnicos foram definidos a partir de um extenso programa de ensaios de campo e laboratório, executado no local em estudo, fazendo-se uso de um tratamento estatístico dos dados experimentais. Os resultados numéricos mostraram a potencialidade do programa na previsão do comportamento de áreas de resíduos durante o alteamento a montante, com previsões de recalques e deslocamentos horizontais coerentes com a instrumentação de campo.
Resumo:
Apresenta-se neste trabalho um estudo sobre o impacto do empilhamento de eventos (pile-up), nas distribuições das variáveis comumente utilizadas para identificar eventos difrativos, na topologia de difração dura simples produzindo dijatos, nas condições do CMS para baixa luminosidade (2 x 1033 cm -2 s-1). O cenário de baixa luminosidade citado acima equivale aproximadamente a 5 eventos de pile-up em média por cruzamento de pacotes. Para simular o sinal, difrativos (com e sem pile-up), usamos o gerador POMWIG (1). Para os eventos não-difrativos (com e sem pile-up), utilizamos o gerador PYTHIA (2),bem como para a produção dos eventos de pile-up (eventos simulados utilizando eventos de minimum bias).
Resumo:
Este estudo faz uma análise dos debates presidenciais na televisão como eventos persuasivos de campanha. O objetivo foi contribuir para a compreensão não só do papel dessa fonte de informação política no contexto brasileiro, mas discutir também de maneira sistemática os seus possíveis efeitos. Os debates na TV são uma variável comunicacional de curto prazo dos processos eleitorais. Eles oferecem estímulos comunicacionais que são disseminados no ambiente da campanha, seja por quem o assiste diretamente, seja por quem fica sabendo desses eventos e dos desempenhos dos candidatos através de outros dispositivos, como a imprensa e o Horário da Propaganda Gratuita Eleitoral (HPGE). Como apenas informação não basta para explicar mudanças de opinião, focamos o estudo em dois eixos principais. O primeiro deles na identificação e no mapeamento das estratégias persuasivas adotadas pelos candidatos, porque eles são instados a confrontar seus adversários, num evento ao vivo, e por meio do qual os eleitores podem avaliar não só o seu posicionamento político, como a maneira que se apresentam. Está presente, neste caso, um impacto sobre a atitude dos eleitores com relação aos competidores. Os principais resultados indicam haver um padrão no objetivo das mensagens, prevalecendo, no agregado, o ataque entre os candidatos da oposição, e a aclamação entre os candidatos da situação. O posicionamento do candidato, bem como o conteúdo político das mensagens apresentaram resultados significativos para um possível efeito sobre a atitude dos eleitores. No estudo, propomos ainda a análise dos enquadramentos adotados pelos competidores, cuja função é estabelecer um quadro de referência para a audiência. Esta variável, que procura levar em conta aspectos da comunicação verbal e nãoverbal, também apresentou resultados significativos. No segundo eixo analítico, tratamos dos efeitos agregados desses acontecimentos de campanha. Foram analisados os debates de 2002, quando prevalecia um clima de opinião favorável à oposição, e 2010, quando o clima é favorável à situação. Com relação ao impacto dos debates no ambiente informacional, os dados sugerem que, em 2002, a atuação de Luiz Inácio Lula da Silva (PT), candidato da oposição, levou a uma ampliação da cobertura jornalística positiva sobre o candidato; enquanto houve um declínio dessa cobertura para José Serra (PSDB), candidato da situação. Em 2010, na cobertura da imprensa após os debates, tanto a candidata da situação, Dilma Rousseff (PT), quanto o da oposição, José Serra, apresentaram equilíbrio. O impacto no ambiente informacional da campanha foi acompanhado de um aumento da intenção de voto agregada para os candidatos que lideravam as pesquisas e que representavam a mudança em 2002, no caso Lula, ou a continuidade em 2010, no caso Dilma. Nas duas eleições, portanto, os debates na TV no Brasil indicaram ser eventos persuasivos importantes, apesar de terem um papel menos central como dispositivo de informação eleitoral e de não levarem à troca de posição entre os competidores nas pesquisas opinião. Mas eles contribuem, ao menos indiretamente, para consolidar e ampliar intenções de voto dos primeiros colocados a partir de uma percepção positiva disseminada sobre os seus desempenhos.
Resumo:
A Amazônia exibe uma variedade de cenários que se complementam. Parte desse ecossistema sofre anualmente severas alterações em seu ciclo hidrológico, fazendo com que vastos trechos de floresta sejam inundados. Esse fenômeno, entretanto, é extremamente importante para a manutenção de ciclos naturais. Neste contexto, compreender a dinâmica das áreas alagáveis amazônicas é importante para antecipar o efeito de ações não sustentáveis. Sob esta motivação, este trabalho estuda um modelo de escoamento em áreas alagáveis amazônicas, baseado nas equações de Navier-Stokes, além de ferramentas que possam ser aplicadas ao modelo, favorecendo uma nova abordagem do problema. Para a discretização das equações é utilizado o Método dos Volumes Finitos, sendo o Método do Gradiente Conjugado a técnica escolhida para resolver os sistemas lineares associados. Como técnica de resolução numérica das equações, empregou-se o Método Marker and Cell, procedimento explícito para solução das equações de Navier-Stokes. Por fim, as técnicas são aplicadas a simulações preliminares utilizando a estrutura de dados Autonomous Leaves Graph, que tem recursos adaptativos para manipulação da malha que representa o domínio do problema
Resumo:
Diversas aplicações industriais relevantes envolvem os processos de adsorção, citando como exemplos a purificação de produtos, separação de substâncias, controle de poluição e umidade entre outros. O interesse crescente pelos processos de purificação de biomoléculas deve-se principalmente ao desenvolvimento da biotecnologia e à demanda das indústrias farmacêutica e química por produtos com alto grau de pureza. O leito móvel simulado (LMS) é um processo cromatográfico contínuo que tem sido aplicado para simular o movimento do leito de adsorvente, de forma contracorrente ao movimento do líquido, através da troca periódica das posições das correntes de entrada e saída, sendo operado de forma contínua, sem prejuízo da pureza das correntes de saída. Esta consiste no extrato, rico no componente mais fortemente adsorvido, e no rafinado, rico no componente mais fracamente adsorvido, sendo o processo particularmente adequado a separações binárias. O objetivo desta tese é estudar e avaliar diferentes abordagens utilizando métodos estocásticos de otimização para o problema inverso dos fenômenos envolvidos no processo de separação em LMS. Foram utilizados modelos discretos com diferentes abordagens de transferência de massa, com a vantagem da utilização de um grande número de pratos teóricos em uma coluna de comprimento moderado, neste processo a separação cresce à medida que os solutos fluem através do leito, isto é, ao maior número de vezes que as moléculas interagem entre a fase móvel e a fase estacionária alcançando assim o equilíbrio. A modelagem e a simulação verificadas nestas abordagens permitiram a avaliação e a identificação das principais características de uma unidade de separação do LMS. A aplicação em estudo refere-se à simulação de processos de separação do Baclofen e da Cetamina. Estes compostos foram escolhidos por estarem bem caracterizados na literatura, estando disponíveis em estudos de cinética e de equilíbrio de adsorção nos resultados experimentais. De posse de resultados experimentais avaliou-se o comportamento do problema direto e inverso de uma unidade de separação LMS visando comparar os resultados obtidos com os experimentais, sempre se baseando em critérios de eficiência de separação entre as fases móvel e estacionária. Os métodos estudados foram o GA (Genetic Algorithm) e o PCA (Particle Collision Algorithm) e também foi feita uma hibridização entre o GA e o PCA. Como resultado desta tese analisouse e comparou-se os métodos de otimização em diferentes aspectos relacionados com o mecanismo cinético de transferência de massa por adsorção e dessorção entre as fases sólidas do adsorvente.
Resumo:
Uma rede de trocadores de calor pode ser definida como um grupo de trocadores de calor interligados com o objetivo de reduzir a necessidade de energia de um sistema, sendo largamente usada nas indústrias de processos. Entretanto, uma rede está sujeita à deposição, a qual causa um decréscimo na efetividade térmica dos trocadores. Este fenômeno é provocado pelo acúmulo de materiais indesejáveis sobre a superfície de troca térmica. Para compensar a redução de efetividade térmica causada pela deposição, torna-se necessário um aumento no consumo de utilidades. Isto eleva os custos de operação, assim como os custos de manutenção. Estima-se que os custos associados à deposição atinjam bilhões de dólares anualmente. Em face a este problema, vários trabalhos de pesquisa têm investigado métodos para prevenir a deposição e/ou gerenciar as operações em uma rede. Estudos envolvem desde a otimização de trocadores de calor individuais, simulação e monitoramento de redes, até a otimização da programação das paradas para limpeza de trocadores de calor em uma rede. O presente trabalho apresenta a proposição de um modelo para simulação de redes de trocadores de calor com aplicações no gerenciamento da deposição. Como conseqüência, foi desenvolvido um conjunto de códigos computacionais integrados, envolvendo a simulação estacionária de redes, a simulação pseudo-estacionária do comportamento de redes em relação à evolução da deposição, a estimação de parâmetros para diagnóstico do problema da deposição e a otimização operacional deste tipo de sistema. Com relação ao simulador estacionário, o modelo da rede foi formulado matricialmente e os balanços de massa e energia são resolvidos como sistemas de equações lineares. Do ponto de vista da otimização, o procedimento proposto redistribui as vazões, visando um melhor aproveitamento térmico dos trocadores da rede, como, por exemplo, buscando as vazões da rede que maximizem a temperatura da corrente de entrada no forno em unidades de destilação atmosférica de óleo cru. Os algoritmos foram implementados em alguns exemplos da literatura e em um problema de uma refinaria real. Os resultados foram promissores, o que sugere que a proposta deste trabalho pode vir a ser uma abordagem interessante para operações envolvendo redes de trocadores de calor
Resumo:
A exaustão de um veículo de motor a diesel é uma importante fonte de poluentes atmosféricos, pois forma uma matriz complexa composta de poluentes regulados e não regulados pelos órgãos governamentais. Dentre os poluentes regulados podemos citar óxidos de nitrogênio (NOx) e material particulado. Os poluentes não regulados são pouco estudados até hoje e dentre estes encontra-se a classe dos hidrocarbonetos policíclicos aromáticos e seus derivados nitrados (nitro-HPA). Estes são encontrados na exaustão do diesel na forma gasosa ou agregados ao material particulado. Hoje, o interesse em estudos destes compostos vem aumentando, devido às suas atividades carcinogênicas e mutagênicas às quais estão sujeitas as populações dos centros urbanos. O impacto causado pelos nitro-HPA emitidos por motores a ciclo diesel ao ambiente não está ainda completamente estabelecido. Este estudo consiste na modelagem e simulação do processo de combustão de hidrocarbonetos na faixa de C1 a C4 com o objetivo de descrever a formação de compostos aromáticos, principalmente HPA, e óxidos de nitrogênio a partir de modelos cinéticos de combustão propostos na literatura como referência e fazendo uso do software de simulação Kintecus. Este projeto tem como objetivo em longo prazo propor um modelo cinético para combustão do óleo Diesel. Foi iniciada a construção de um modelo cinético de combustão a partir de modelos de hidrocarbonetos simples de C1 a C4, com formação de aromáticos, HPA e óxidos de nitrogênio. Os modelos originais foram avaliados e modificados a fim de estudar como parâmetros do modelo afetam a concentração das espécies de interesse. Foi observado a tendência de formação de benzeno e fulveno em baixas temperaturas e a tendência de formação de antraceno, pireno, fenantreno a temperaturas mais altas. Foi avaliado que a conversão NO-NO2 ocorre em maiores proporções em reações iniciadas a baixas temperaturas, 600 K. Os resultados indicam que propano é o maior responsável por esta conversão. O modelo final obtido resultou da união dos modelos de combustão Hori e Marinov mais inclusão do GRI-Mech 3.0 e reações adicionais de NOx retiradas da base de dados NIST