83 resultados para Viscosidade e simulação
Resumo:
A atividade de crédito consiste, em termos financeiros, na entrega de um valor presente mediante uma promessa de pagamento em data futura. Uma vez que se trata de promessa de pagamento, existe a possibilidade de que a mesma não seja cumprida, dando origem ao risco de crédito. Dada a existência desse risco, cabe às instituições que concedem crédito realizar uma análise do proponente, buscando aferir se o mesmo possui condições de cumprir o compromisso assumido. Um dos aspectos a ser levado em consideração nessa análise diz respeito à capacidade de pagamento da empresa, realizada através de projeções do fluxo de caixa da mesma. Com base nisso, o presente trabalho teve por objetivo a construção de um modelo de simulação para avaliar a capacidade de pagamento de empresas em financiamentos de longo prazo. Entende-se que a aplicação de um modelo dessa natureza pode trazer informações adicionais relevantes para o problema em análise. A avaliação do modelo construído, realizada através de consulta a experts no problema de decisão de crédito, aponta que tanto a técnica utilizada quanto o modelo construído mostram-se adequados e aderentes à realidade, propiciando uma maior segurança para a tomada de decisão.
Resumo:
O presente trabalho tem por objetivo o estudo dos tratamentos termoquímicos comuns na indústria metalúrgica denominados: nitretação, nitrocarburação e carbonitretação com o auxílio da ferramenta conhecida como ‘termodinâmica computacional’. Com o uso de um aplicativo computacional e de um banco de dados compacto procurou-se primeiramente o perfeito entendimento dos processos, por exemplo, através da análise do efeito de variáveis como temperatura, pressão e composição das fases gasosa e condensada. A partir deste entendimento procurouse simular os tratamentos termoquímicos dentro de parâmetros conhecidos da prática industrial e, finalmente, procurou-se sugerir algumas outras atmosferas possíveis de serem aplicadas, que se mostraram apropriadas aos objetivos de tais tratamentos. Durante a simulação, constatou-se que alguns resultados mostraram-se algo diferente dos existentes na literatura, provavelmente por diferenças nos dados termodinâmicos utilizados. Este fato, contudo, não invalida as simulações. Sugere-se apenas, para o futuro, a utilização de bancos de dados ainda mais compatíveis com os resultados obtidos na prática industrial.
Resumo:
Esta tese propõe um modelo para descrever o campo de velocidade do vento originado numa tormenta elétrica. O escoamento descendente que ocorre durante uma tormenta elétrica madura é modelado como um campo de fluxo axial simétrico. A evolução da velocidade do vento com o tempo é considerada por meio de uma função de modulação empírica. As flutuações da velocidade ao redor da velocidade média em evolução são representadas por um processo aleatório do tipo ruído branco em faixa. Todos os parâmetros utilizados no modelo estão relacionados a variáveis meteorológicas, tais como a altura e diâmetro da nuvem cumulonimbus causadora do evento, a diferença de pressão e a distância entre o solo e a base da nuvem. Adicionalmente considera-se que a nuvem é transportada numa direção pré escolhida pelo vento de fundo, que pode ser devido à circulação geral na região ou a um ciclone extra-tropical. O campo de velocidades do vento resulta da superposição de ambos campos. O modelo é validado comparando as velocidades do vento determinadas em eventos simulados, com registros de estações meteorológicas. Adicionalmente, perfis verticais previstos pelo modelo são comparados com vários perfis para tormentas elétricas propostos na literatura. Finalmente, séries de velocidade máximas anuais a altura padrão de 10m foram simuladas para três estações meteorológicas no sul do Brasil, para as quais dados experimentais são conhecidos, em termos do número médio de tormentas elétricas por ano e das funções distribuição de probabilidade que caracterizam o vento de fundo. A comparação com séries de registros máximos existentes é satisfatória, dando credibilidade adicional ao modelo proposto.
Resumo:
O agronegócio da soja, caracterizado como investimento em atividade produtiva, envolve problemas de incertezas com o comprometimento definitivo de recursos, com a impossibilidade de reverter decisões tomadas e, também, com o esforço de prever a renda a ser obtida com a colheita. A questão relevante para o sojicultor é como avaliar o rendimento esperado de grãos em um contexto de incertezas, base para o cômputo da taxa de retorno do investimento na produção de soja. Este trabalho teve como objetivo estabelecer uma metodologia que associa um modelo estocástico de precipitação a um modelo de predição do rendimento da cultura de grãos de modo a permitir a atribuição de probabilidades aos rendimentos esperados de soja. Foram utilizados dados meteorológicos diários referentes à precipitação pluvial, temperatura máxima, mínima e média do ar, umidade relativa do ar, radiação solar global e velocidade do vento a 2 metros, bem como o rendimento de soja de Cruz Alta(RS) do período 1/1/1975-31/12/1997 A precipitação pluvial diária foi ajustada à cadeia de Markov de primeira ordem e dois estados e na função gama com variação sazonal para os meses de outubro a abril. Os resultados indicaram que a metodologia associando a geração de séries de precipitação pluvial, evapotranspiração da soja e evapotranspiração real, aplicadas como variáveis de entrada no modelo de predição do rendimento de grãos, possibilitou a definição da densidade de probabilidade do rendimento esperado de soja e, por conseguinte, a quantificação do risco na forma da distribuição de probabilidade acumulada do rendimento. O risco de ocorrência de um valor de rendimento de soja, menor que um valor mínimo de aceitação, quantiifcado pela sua distribuição de probabilidade acumulada, fundamentada em um fenômeno da natureza - a precipitação pluvial - que não depende da vontade humana. A obtenção do rendimento desejado envolve um processo que depende de organização, isto é, depende de fatores subjetivos, de decisões e escolhas. Enfim, um processo que comporta alternativas e depende de iniciativas humanas.
Resumo:
Este trabalho apresenta o modelo de simulação microscópico, STIRO (Simulador de Tráfego Ininterrupto ROdoviário), desenvolvido para representar trechos de rodovias de pista simples em aclives com faixas adicionais para veículos lentos. STIRO foi utilizado permitir para avaliar as condições de tráfego sob diferentes alternativas de projeto e demanda. O comportamento dos veículos é representado pelos modelos de car-following e lane-changing. No STIRO, o modelo de car-following ainda incorpora uma restrição ao desempenho motriz baseado na relação entre massa e potência de cada categoria de veículo. O trabalho apresenta um estudo sobre diferenças entre as velocidades dos veículos pesados e automóveis e as melhorias proporcionadas pela implantação de faixas adicionais. Por fim, foi realizado um projeto de experimentos para determinar o efeito sobre a velocidade média de percurso dos veículos e ocupação média da via causado por fatores como inclinação da rampa, proporção de veículos pesados no fluxo de tráfego, extensão da rampa, e outras variáveis consideradas no modelo STIRO.
Resumo:
Nas últimas décadas, sistemas de suprimento de energia que utilizam recursos renováveis têm sido estudados e empregados como opção para o fornecimento de energia elétrica em comunidades isoladas em áreas remotas. Devido aos avanços da tecnologia fotovoltaica associada à diminuição de custos e maior conhecimento de seu desempenho, os sistemas fotovoltaicos apresentam-se como uma opção promissora. Neste trabalho apresenta-se o desenvolvimento de um programa computacional de dimensionamento e simulação de sistemas fotovoltaicos autônomos na linguagem de programação Visual Basic 5.0, chamado PVSize, capaz de propor, para uma certa configuração de sistema, o número de baterias e módulos com seu risco de déficit de energia. Este programa tem como finalidade facilitar a interação com o usuário, e poderá ser utilizado como uma ferramenta auxiliar no processo de escolha dos elementos do sistema e estabelecer a melhor configuração através de um acompanhamento anual com base horária dos parâmetros envolvidos. Estes elementos são caracterizados através da implementação de modelos matemáticos propostos por diferentes autores que descrevem o seu desempenho individual. A integração destes modelos através de uma metodologia apropriada levou ao desenvolvimento de um programa completo de dimensionamento e simulação de sistemas fotovoltaicos autônomos. O potencial energético solar é obtido a partir de informações das características climatológicas locais, utilizadas para gerar séries de dados de radiação a partir de modelos estatísticos O programa permite projetar sistemas de suprimento de energia elétrica que atenderão cargas comunitárias (iluminação pública e de escolas, bombeamento de água, refrigeração em centros de saúde, irrigação, telecomunicações, e mais) e cargas residenciais (iluminação, refrigeração, lazer, etc.) tornando-se uma ferramenta importante para o projeto de sistemas fotovoltaicos autônomos. A comparação dos valores obtidos através de PVSize e outros programas computacionais desenvolvidos por estabelecimentos conceituados na área apresentou uma ótima concordância. Desta forma fica demonstrada a adequação do PVSize para o dimensionamento e simulação de sistemas fotovoltaicos autônomos.
Resumo:
Este trabalho apresenta uma abordagem numérica da fratura baseada no Método dos Elementos Finitos na qual são considerados materiais frágeis como objeto de estudo. As simulações realizadas são possíveis através de um algoritmo computacional que consiste na implementação de molas entre as faces dos elementos finitos. Esta composição constitui o método denominado Interfaces Coesivas. As molas fornecem o efeito de coesão e é representado por leis constitutivas do tipo bi-linear. Sua descrição é apresentada, bem como sua implementação na análise. Tanto o modo I como o modo II de ruptura são considerados. Com o objetivo de verificar o presente modelo com outros resultados e soluções, são analisados exemplos numéricos e experimentais extraídos da literatura. Tais exemplos tratam da nucleação, propagação e eventuais paradas de trincas em peças estruturais submetidas aos mais diversos carregamentos e condições de contorno. É ainda discutido como os parâmetros de fratura do material interferem no processo de ruptura. Uma tentativa é feita de determinar estes parâmetros, em especial no caso de concreto.
Resumo:
Neste trabalho e apresentado um avanço na tecnica GILTT(Generalized Integral and Laplace Transform Technique) solucionando analiticamente um sistema de EDO's(Equações Diferenciais Ordinarias) de segunda ordem resultante da transformação pela GITT(Generalized Integral Transform Technique). Este tipo de problema usualmente aparece quando esta tecnica é aplicada na solução de problemas bidimensionais estacionários. A principal idéia consiste na redução de ordem do problema transformado em outro sistema de EDO's lineares de primeira ordem e a solução analítica deste problema, pela técnica da transformada de Laplace. Como exemplo de aplicação é resolvida a equação da energia linear bidimensional e estacionária. São apresentadas simulações numéricas e comparações com resultados disponíveis na literatura.
Resumo:
Este estudo apresenta um sistema real de produção, numa fábrica de máquinas agrícolas localizada no Paraná, cuja produção é regida pela sazonalidade.É feita a análise do processo produtivo atual da peça mais complexa produzida na empresa, processo que hoje tem sua produção empurrada. Através de simulação computacional, é estudado o desempenho do sistema como ele é atualmente, e propostas alternativas com a produção sendo gerida através de kanban ou de CONWIP. São utilizados como medidas de desempenho a quantidade total produzida, inventário em processo e tempo de ciclo. Com a equalização do nível de serviços dos modelos, através do ajuste das quantidades de cartões kanban e CONWIP, torna-se possível uma comparação mais adequada dos sistemas de gestão, e escolha do que melhor se adapta à situação estudada.
Resumo:
Fenômenos naturais, tecnológicos e industriais podem, em geral, ser modelados de modo acurado através de equações diferenciais parciais, definidas sobre domínios contínuos que necessitam ser discretizados para serem resolvidos. Dependendo do esquema de discretização utilizado, pode-se gerar sistemas de equações lineares. Esses sistemas são, de modo geral, esparsos e de grande porte, onde as incógnitas podem ser da ordem de milhares, ou até mesmo de milhões. Levando em consideração essas características, o emprego de métodos iterativos é o mais apropriado para a resolução dos sistemas gerados, devido principalmente a sua potencialidade quanto à otimização de armazenamento e eficiência computacional. Uma forma de incrementar o desempenho dos métodos iterativos é empregar uma técnica multigrid. Multigrid são uma classe de métodos que resolvem eficientemente um grande conjunto de equações algébricas através da aceleração da convergência de métodos iterativos. Considerando que a resolução de sistemas de equações de problemas realísticos pode requerer grande capacidade de processamento e de armazenamento, torna-se imprescindível o uso de ambientes computacionais de alto desempenho. Uma das abordagens encontradas na literatura técnica para a resolução de sistemas de equações em paralelo é aquela que emprega métodos de decomposição de domínio (MDDs). Os MDDs são baseados no particionamento do domínio computacional em subdomínios, de modo que a solução global do problema é obtida pela combinação apropriada das soluções obtidas em cada um dos subdomínios Assim, neste trabalho são disponibilizados diferentes métodos de resolução paralela baseado em decomposição de domínio, utilizando técnicas multigrid para a aceleração da solução de sistemas de equações lineares. Para cada método, são apresentados dois estudos de caso visando a validação das implementações. Os estudos de caso abordados são o problema da difusão de calor e o modelo de hidrodinâmica do modelo UnHIDRA. Os métodos implementados mostraram-se altamente paralelizáveis, apresentando bons ganhos de desempenho. Os métodos multigrid mostraram-se eficiente na aceleração dos métodos iterativos, já que métodos que utilizaram esta técnica apresentaram desempenho superior aos métodos que não utilizaram nenhum método de aceleração.
Resumo:
O objetivo deste trabalho foi analisar o processo de ensino-aprendizagem de Física através de abordagens didáticas envolvendo o uso de atividades de simulação e modelagem computacionais em um ambiente de atividade colaborativa presencial. Num primeiro estudo, realizado a partir de uma metodologia quantitativa, avaliou-se o desempenho dos alunos em testes que tinham como tópico a interpretação de gráficos da Cinemática, antes e depois de trabalharem com atividades de simulação e modelagem computacionais em atividades extra-aula. Os resultados deste primeiro estudo mostram que houve melhorias estatisticamente significativas no desempenho dos alunos do grupo experimental, quando comparado aos estudantes do grupo de controle, submetidos apenas ao método tradicional de ensino. Na seqüência, foram realizados outros dois estudos dentro de uma metodologia qualitativa, em que o foco estava no processo de ensino-aprendizagem que ocorre em ambiente de sala de aula. Foi utilizada uma abordagem que envolveu, além das atividades computacionais, um método colaborativo presencial como dinâmica de base para o estabelecimento das relações interpessoais entre o professor e a turma, e os alunos entre si.A fundamentação teórica adotada esteve baseada na teoria de Ausubel sobre aprendizagem significativa e na teoria de Vygotsky sobre interação social. O referencial de Halloun sobre modelagem esquemática também foi utilizado. Os resultados sugerem que as atividades de simulação e modelagem computacionais são potencialmente facilitadoras de aprendizagem significativa em Física. Sugerem, também, que a atividade colaborativa presencial contribui positivamente para esse tipo de aprendizagem.
Resumo:
Neste trabalho, analisam-se os processos de formação de ligações de hidrogênio entre as bases Adenina. Timina, Guanina e Citosina usando o método Monte Carlo probabilístico. A possibilidade de formação de pares é inicialmente verificada considerando critério geométrico (distância e orientação das molécutlas) seguida pela análise da probabilidade energética, que é proporcional ao fator de Boltzmann. Os resultados mostram que a probabilidade de concorrência, para alguns modelos, não segue a estrutura mais provável segundo o fator de Boltzmann. Isto sugere que existe uma forte influência geométrica na formação dos pares (ligações simples e múltiplas). Tal análise fornece para a construção de modelos mais complexos bem como para o entendimento de alguns mecanismos que ocorrem em processos relacionados à mutações, visando compreender este tipo de fenômeno biológico
Resumo:
Na simulação heterogênea de um sistema eletrônico complexo, um mesmo modelo pode ser composto por partes distintas em relação às tecnologias ou linguagens utilizadas na sua descrição, níveis de abstração, ou pela combinação de partes de software e de hardware (escopo da co-simulação). No uso de modelos heterogêneos, a construção de uma ponte eficaz entre diferentes simuladores, em conjunto com a solução de problemas tais como sincronização e tradução de dados, são alguns dos principais desafios. No contexto do projeto de sistemas embarcados, a validação desses sistemas via co-simulação está sujeita a estes desafios na medida em que um mesmo modelo de representação precisa suportar a cooperação consistente entre partes de hardware e de software. Estes problemas tornam-se mais significativos quando abordados em ambientes distribuídos, o que aumenta a complexidade dos mecanismos que gerenciam os ítens necessários à correta cooperação entre partes diferentes. Contudo, embora existam abordagens e ferramentas voltadas para o tratamento de modelos heterogêneos, inclusive em ambientes distribuídos, ainda persiste uma gama de limitações causadas pela distribuição e heterogeneidade de simuladores. Por exemplo, restrições quanto à variedade de tecnologias (ou linguagens) utilizadas na descrição das partes de um modelo, flexibilidade para o reuso de partes existentes, ou em tarefas de gerenciamento de sincronização/dados/interface/distribuição. Além disso, em geral, nas soluções existentes para simulação heterogênea, alterações são necessárias sobre as partes do modelo, limitando a preservação de sua integridade. Esta é uma característica indesejável, por exemplo, no reuso de componentes IP (Intellectual Property) Neste contexto, esta tese apresenta o DCB (Distributed Co-simulation Backbone), cujo propósito geral é o suporte à execução distribuída dos modelos heterogêneos. Para isso, são observados de modo integrado quatro fatores básicos: a distribuição física; a independência dos componentes (partes); o encapsulamento das estratégias de gerenciamento de tempo, de dados e de comunicação; e a sincronização híbrida. Em geral, as soluções existentes valorizam um fator em detrimento dos demais, dependendo dos propósitos envolvidos e sua variação em relação ao grau de especificidade (soluções proprietárias ou restritas a um escopo de aplicações). O Tangram, também discutido nesta tese em termos de requisitos, é uma proposta de ambiente para projeto de modelos heterogêneos distribuídos. No contexto da especificação do DCB, esta proposta tem como objetivo geral agregar num mesmo ambiente funcionalidades de apoio para a busca e catalogação de componentes, seguidas do suporte à construção e à execução distribuída de modelos heterogêneos via DCB. À luz dos princípios de generalidade e flexibilidade da arquitetura do DCB, o Tangram visa permitir que o projetista reduza seu envolvimento com detalhes relacionados ao provimento de condições necessárias à cooperação entre componentes heterogêneos. No escopo desta tese, ênfase foi dada à co-simulação de sistemas embarcados, ênfase esta observada também na construção do protótipo do Tangram/DCB, e nos estudos de caso. Contudo, a estrutura do DCB é apropriada para qualquer domínio onde a simulação possa ser utilizada como instrumento de validação, entre outros propósitos.
Resumo:
A simulação, como ferramenta de suporte à tomada de decisão, tem sido utilizada nas mais variadas áreas do conhecimento e especialmente no projeto e dimensionamento de plantas de produção. Em geral, os simuladores para sistemas de produção consideram variáveis relativas à quantidade, tipo e disposição física de máquinas, quantidades dos estoques intermediários, e aos tempos de produção sem, no entanto, considerar os tempos reais do trabalho do ser humano envolvido no processo, apesar de a mão de obra humana ser largamente empregada nestes sistemas, afetando diretamente a sua produtividade. Uma das possíveis razões disto é a complexidade dos fatores que influenciam na produtividade do ser humano, que varia em função de fatores ambientais, fisiológicos, psicológicos ou sociais. Normalmente, os sistemas de simulação da produção representam o trabalhador humano da mesma forma como representam uma máquina, uma ferramenta ou um equipamento, cuja previsibilidade é bem maior. Esta dissertação avalia a questão humana em um simulador bastante utilizado comercialmente, e evidenciou que os fatores ergonômicos são capazes de alterar significativamente os resultados de uma simulação, justificando o desenvolvimento de rotinas computacionais capazes de representar o elemento humano e suas interações com o sistema, de forma mais fidedigna.
Resumo:
Neste trabalho utilizamos inicialmente as descrições dos possíveis modelos mentais construídos por estudantes de Física Geral na área de Mecânica Clássica, segundo a perspectiva teórica de Philip N. Johnson-Laird (1983), pesquisadas por Lagreca (1997 e 1999). A partir destas descrições, estendemos seus resultados de acordo com uma revisão da literatura, procurando a formação de possíveis modelos simuláveis computacionalmente. O Qsim (Kuipers, 1994) foi o algoritmo de simulação escolhido para o nosso trabalho, devido à semelhança com pesquisas analíticas encontradas sobre o pensamento dos estudantes. Para a simulação, implementamos dois modelos. O modelo newtoniano utiliza noções semelhantes às idéias de Newton, pelo menos com as forças de contato e o atrito com dependência direta com a velocidade. O modelo do impetus possui a concepção de força proporcional à velocidade com o atrito constante. Neste último caso não foi possível a construção de simulações a partir de um atrito dependente da velocidade, devido ao reconhecimento do programa de apenas uma única função crescente. Além disso, simulamos três modelos provenientes do modelo do impetus quando a situação envolve queda na presença da força gravitacional Para a simulação dos modelos, selecionamos alguns problemas para estudo. Iniciamos com o estudo do movimento horizontal e, em seguida, os problemas do páraquedista, do penhasco e do movimento balístico. Comparamos os resultados com algumas concepções dos estudantes encontradas em pesquisas analítico-qualitativas, mostrando que muitas concepções surgiam naturalmente da manipulação dos modelos nos problemas. Isto sugere que a abordagem dos modelos mentais seja mais ampla que a das concepções alternativas e que muitas dessas concepções possam ser reflexos da manipulação dos modelos em algumas situações.