952 resultados para Simulações numéricas


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Combinando métodos computacionais da eletrostática e dinâmica molecular, este trabalho teve como objetivo descrever processos de solvatação em sistemas quimicamente importantes. Foram obtidas propriedades termodinâmicas necessárias para o entendimento do processo de solvatação. Estão descritos e testados modelos para descrever a interação soluto-solvente, possibilitando, assim, aprimorar a descrição físico-química dos processos de solvatação. Utilizaram-se programas desenvolvidos em nosso grupo e programas comerciais que permitem os cálculos de dinâmica molecular e química quântica. Uma nova abordagem para o cálculo de energia livre de solvatação foi desenvolvida proporcionando a obtenção acurada e eficiente dessa propriedade, dentro do enfoque da dinâmica molecular. Nessa nova abordagem, novas metodologias para a geração de cavidades moleculares foram propostas e avaliadas. As energias livres de solvatação obtidas estão em boa concordância com os valores experimentais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho, analisamos utilização da metodologia CreditRLsk+ do Credit Suisse sua adequação ao mercado brasileiro, com objetivo de calcular risco de uma carteira de crédito. Certas hipóteses assumidas na formulação do modelo CreditRisk+ não valem para o mercado brasileiro, caracterizado, por exemplo, por uma elevada probabilidade de defcnilt. Desenvolvemos, então, uma metodologia para cálculo da distribuição de perdas através do método de Simulação de Monte Cario, alterando algumas hipóteses originais do modelo com objetivo de adaptá-lo ao nosso mercado. utilização de simulações também oferece resultados mais precisos em situações onde as carteiras possuem uma pequena população de contratos, além de eliminar possíveis problemas de convergência do método analítico, mesmo considerando as hipóteses do modelo original. Verifica-se ainda que tempo computacional pode ser menor que da metodologia original, principalmente em carteiras com elevado número de devedores de perfis distintos com alocações em diversos setores da economia. Tendo em vista as restrições acima, acreditamos que metodologia proposta seja uma alternativa para forma analítica do modelo CreditRisk+. Apresentamos exemplos de utilização resultados providos por estas simulações. ponto central deste trabalho realçar importância da utilização de metodologias alternativas de medição de risco de crédito que incorporem as particularidades do mercado brasileiro.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho situa-se na área de Sistemas Multiagente, que é uma sub-área da Inteligência Artificial Distribuída. Em particular, o problema abordado nesta dissertação é o da modelagem de ambientes, um aspecto importante na criação de simulações baseadas em sociedades de agentes cognitivos, no entanto pouco tratado na literatura da área. A principal contribuição deste trabalho é a concepção de uma linguagem, chamada ELMS, própria para a definição de ambientes multiagente, e a implementação de um protótipo de interpretador para esta linguagem. O resultado da interpretação é um processo que simula o ambiente descrito em alto nível, e é apropriado para a interação com os agentes cognitivos que irão compartilhar o ambiente. Esta linguagem foi desenvolvida no contexto do projeto MASSOC, que tem como objetivo a criação de simulações sociais com agentes cognitivos. A abordagem deste projeto dá ênfase ao uso da arquitetura BDI para agentes cognitivos, a comunicação inter-agente de alto nível (ou seja, baseada em atos de fala) e a modelagem de ambientes com a linguagem ELMS, que é proposta neste trabalho. Os ambientes e agentes que podem ser usados na criação de simulaçõpes, bem como a comunicação entre eles utilizando a ferramenta SACI, são definidos ou gerenciados a partir de uma interface gráfica, que facilita a criação e controle de simulações com a plataforma MASSOC. Além de apresentar a linguagem ELMS e seu interpretador, esta dissertação menciona ainda, como breve estudo de caso, uma simulação de aspectos sociais do crescimento urbano. Esta simulação social auxiliou na concepção e avaliação da linguagem ELMS.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem como objetivo explicar o funcionamento do Sistema Brasileiro de Defesa da Concorrência e apresentar novas ferramentas de auxílio à política antitruste. Para isso, discutiremos o Sistema Norte-Americano de Defesa da Concorrência e, principalmente, o guideline americano, que é a base das técnicas de análise de fusões e aquisições em grande parte dos países, inclusive o Brasil. Uma vez apresentado o ambiente institucional, explicare- mos alguns modelos de simulação de fusões, uma técnica relativamente recente utilizada por alguns órgãos antitruste do mundo que permite fazer previsões do novo nível de preços da indústria após a fusão. Para ilustrar as virtudes do método, aplicaremos o modelo a alguns casos de aquisições conhecidos no Brasil e analisaremos seus resultados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os modelos computacionais SATURN e DRACULA avaliam o tráfego através de diferentes fundamentações teóricas. O SATURN é um modelo macroscópico de alocação de tráfego que incorpora uma estrutura mesoscópica de simulação de interseções. O DRACULA é um modelo microscópico de simulação de tráfego: reproduz a progressão dos veículos através da rede, representando cada entidade individualmente. Ambos os modelos foram desenvolvidos no ITS – Institute for Transport Studies – da Universidade de Leeds, e permitem a troca de informações, podendo ser aplicados em conjunto. O presente trabalho de pesquisa compara as estruturas de simulação do SATURN e do DRACULA. O estudo confronta as fundamentações teóricas dos modelos, relacionando-as com a aplicação prática. São avaliados os dados de entrada, os parâmetros de saída, e os processos particulares de estimação de parâmetros de cada modelo. Através de análises de sensibilidade, avalia-se o impacto da variação de dados de entrada nos parâmetros de saída. Em um estudo de caso, avalia-se a aplicação conjunta dos modelos, ao replicarem o mesmo cenário. O estudo identifica divergências e afinidades na conceituação e no tratamento de parâmetros de entrada e saída tais como dados de descrição de rede e demanda, atrasos, velocidades, tempos de viagem, e capacidade viária. Por fim, o estudo propõe recomendações sobre a implementação prática dos modelos, especialmente quando utilizados em conjunto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As possibilidades das metodologias informacionais para a Sociologia tornam-se problemáticas, pois ela se encontra imersa na sociedade do conhecimento, cuja novidade principal é a de que a informação está envolvida numa estruturação reflexiva e comunicacional. As metodologias de pesquisa do conhecimento sociológico, vinculadas ao mundo da informação digital computável, implicam desafios, sobretudo diante das novas modulagens relacionadas à produção e à descoberta de conhecimentos suportados por computadores. O mundo sociológico apresenta-se, cada vez mais, conectado à reflexividade do conhecimento, assim, a decifração da esfinge informacional pode vir a ser uma grande contribuição da Sociologia à compreensão tanto da produção do conhecimento dessa área, como da vida social contemporânea. Urge, nesse sentido, que a Sociologia caminhe em direção à dupla competência sociológica (Sociologia e Informática) para a formação dos novos cientistas e pesquisadores sociais. O objetivo principal desta tese é verificar a situação da atual interface entre os(as) sociólogos(as) brasileiros(as) e a Informática. Busca-se, também, identificar as implicações metodológicas advindas da interface entre Informática e Sociologia na produção do saber acadêmico, assim como apontar algumas perspectivas desafiadoras para a dupla competência sociológica tanto no tocante à investigação como à produção do seu próprio saber. Inicia-se com parte da história da informação digital, especificando-se e precisando-se seu conceito. Metodologicamente, realizou-se uma pesquisa em nível nacional, através da Internet, visando-se identificar o impacto da Informática na produção do conhecimento sociológico no Brasil. Para tanto, utilizaram-se um programa questionário (software criado para esta tese) e recursos de banco de dados relacionais. Pergunta-se se a adoção de múltiplos procedimentos da informação computada está ou não permitindo a superação das velhas antinomias do tratamento informacional e afirmando um novo padrão de produção e de trabalho científico que se poderia denominar sociologia informacional. Quer-se, assim, afirmar que, diferentemente dos artefatos e instrumentos de elevada amplificação muscular e/ou apenas sensória, a informação digital computável potencializa mais efetivamente a amplificação lógico-cognitiva como o compartilhamento de memória de longo prazo, a integração de suportes recursivos sobre inferência numéricas ou miméticas, a recuperação parametrizada de dados e informações, o compartilhamento de cenários analíticos de simulações e o apoio a descobertas de conhecimento sociológico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho é a definição de um conjunto de roteiros para o ensino de arquitetura de computadores com enfoque em arquiteturas superescalares. O procedimento é baseado em simulação e verificação da influência dos parâmetros arquiteturais dos processadores, em termos funcionais e de desempenho. É dada ênfase a conceitos como memória cache, predição de desvio, execução fora de ordem, unidades funcionais e etc. Através do estudo e avaliação dos parâmetros que constituem estes conceitos, procurava-se através dos roteiros identificar as configurações com melhor desempenho. Para a implementação destes roteiros é dotado o conjunto de ferramentas de simulação SimpleScalar. Este conjunto, além de estar disponibilizado em código aberto na página oficial das ferramentas, traz como vantagem a possibilidade de alteração do código para fins de pesquisa. Este trabalho e os roteiros que o compõem têm como objetivos auxiliar professores e estimular os alunos através de simulações, como forma didática de testar conceitos vistos em sala de aula. Os roteiros são apresentados com os respectivos resultados de simulação e incrementados com comentários e sugestões de um conjunto de perguntas e respostas para que o trabalho possa ter continuidade necessária, partindo da sala de aula para a simulação, busca de respostas e culminando com um relatório final a ser avaliado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

É consenso que as tendências demográficas de longo prazo estão por trás da deterioração das contas previdenciárias na grande maioria dos países do globo. O problema se agrava no Brasil, pois a informalidade do mercado de trabalho exclui milhões de potenciais contribuintes do regime de repartição. O trabalho mensura, através de simulações de um modelo de longo prazo, qual o impacto fiscal das mudanças introduzidas pela transição demográfica. E, admitindo a persistência dessa nova estrutura etária no país, simula quais propostas de reforma da previdência têm maior resultado na redução dos déficits atualmente registrados no INSS. Dentre as principais conclusões estão: (i) a transição demográfica sozinha é responsável por quase dobrar a alíquota previdenciária necessária para equilibrar o sistema, e; (ii) apesar de ser extremamente importante aprovar as propostas de reforma tradicionais (instituição de idade mínima, taxação dos inativos e mudanças nas regras de cálculo dos benefícios), aumentar a cobertura do regime de repartição através da inclusão dos aproximadamente 45 milhões de trabalhadores informais não-contribuintes reduz déficits em magnitude semelhante.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A variação temporal e espacial da ecologia de lagos, estuários e reservatórios está relacionada com a variação na composição da população de fitoplâncton, já que esta comunidade é a base da cadeia alimentar marinha e lacustre. Esta pesquisa desenvolveu um modelo para estimativa da dinâmica de biomassa de fitoplâncton, considerando os mecanismos de transporte no meio aquático, crescimento e perdas de sua biomassa. O modelo possui três módulos: (a) hidrodinâmico, que trata dos fluxos quantitativos do meio, associado a um algoritmo de secagem/inundação; (b) de transporte, que trata dos mecanismos de transporte das substâncias no meio; e (c) biológico, que retrata os mecanismos biológicos relacionados ao fitoplâncton. O módulo hidrodinâmico foi resolvido por um esquema semi-implícito de diferenças finitas, com uma abordagem mista Euleriana-Lagrangiana para os termos advectivos. Para os módulos restantes foi utilizado um esquema mais simples, de diferenças centrais. O modelo foi aplicado no sistema formado pela Lagoa Mangueira e Banhado do Taim localizado na parte sul costeira do estado do Rio Grande do Sul. Este sistema está inserido no Sistema Hidrológico do Taim como unidade de conservação federal, onde se desenvolve o projeto PELD (Pesquisas Ecológicas de Longa Duração). A hidrodinâmica do sistema foi ajustada e verificada apresentando bons resultados. Testes de secagem e inundação mostraram que as tendências esperadas foram obtidas. O aprimoramento da solução numérica do modelo foi comprovado através de testes de preservação de volume e massa em sistemas conservativos. A análise de sensibilidade dos parâmetros do módulo biológico mostrou que os parâmetros para os quais o modelo é mais sensível a alterações são aqueles relacionados aos efeitos de temperatura nas algas e as perdas por respiração e consumo por zooplâncton. Os cenários de análise propostos proporcionaram uma maior compreensão do transporte do material particulado suspenso e do material escalar genérico, assim como a dinâmica e as florações de algas no sistema em condições físicas e meteorológicas reais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho visa apresentar uma metodologia para modelagem de motoristas a serem utilizados em simulações de tráfego veicular discreto. Além da metodologia, será apresentada uma plataforma para implementação de motoristas, chamada DRIVER-DFW, baseada neste conceito. Inicialmente, serão apresentados alguns modelos de movimentação de veículos baseados no modelo de autômato celular Nagel–Schreckenberg. O modelo básico será apresentado juntamente com alguns de seus aperfeiçoamentos, que são os modelos utilizados no simulador ITSUMO, que por sua vez é utilizado como base para o trabalho. Além dos modelos de autômato celular, serão apresentados modelos de planejamento de rota, que se utilizam de várias heurísticas para a tomada de decisão dos motoristas. Destes, selecionou-se um para implementação e demonstração. Mostradas as etapas para composição do modelo completo de motorista, isto é, movimentação e planejamento, será apresentada a plataforma para implementação de motoristas desenvolvida neste trabalho. Esta separação é a base da plataforma DRIVER-DFW que é discutida com mais detalhes para auxiliar a compreensão do seu funcionamento. Além disso, é mostrado como a metodologia é aplicada na plataforma para implementação de motoristas DRIVER-DFW. Por fim, conclui-se que este trabalho apresenta uma alternativa bastante atraente para a implementação de modelos de motoristas, com uma metodologia e uma plataforma de desenvolvimento. Também são apresentadas as diretrizes para dar prosseguimento a este.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Resultado da parceria entre a FGV Projetos e o Instituto Brasiliense de Direito Público (IDP), o estudo “FPE-Equalização Estadual no Brasil – Alternativas e Simulações para a Reforma” discute alternativas existentes para o rateio do Fundo de Participação dos Estados (FPE), apresentando os paradigmas e princípios norteadores de sistemas redistributivos, a situação atual no país e refletindo sobre as alternativas entre os sistemas de equalização de receita e os paramétricos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The present study provides a methodology that gives a predictive character the computer simulations based on detailed models of the geometry of a porous medium. We using the software FLUENT to investigate the flow of a viscous Newtonian fluid through a random fractal medium which simplifies a two-dimensional disordered porous medium representing a petroleum reservoir. This fractal model is formed by obstacles of various sizes, whose size distribution function follows a power law where exponent is defined as the fractal dimension of fractionation Dff of the model characterizing the process of fragmentation these obstacles. They are randomly disposed in a rectangular channel. The modeling process incorporates modern concepts, scaling laws, to analyze the influence of heterogeneity found in the fields of the porosity and of the permeability in such a way as to characterize the medium in terms of their fractal properties. This procedure allows numerically analyze the measurements of permeability k and the drag coefficient Cd proposed relationships, like power law, for these properties on various modeling schemes. The purpose of this research is to study the variability provided by these heterogeneities where the velocity field and other details of viscous fluid dynamics are obtained by solving numerically the continuity and Navier-Stokes equations at pore level and observe how the fractal dimension of fractionation of the model can affect their hydrodynamic properties. This study were considered two classes of models, models with constant porosity, MPC, and models with varying porosity, MPV. The results have allowed us to find numerical relationship between the permeability, drag coefficient and the fractal dimension of fractionation of the medium. Based on these numerical results we have proposed scaling relations and algebraic expressions involving the relevant parameters of the phenomenon. In this study analytical equations were determined for Dff depending on the geometrical parameters of the models. We also found a relation between the permeability and the drag coefficient which is inversely proportional to one another. As for the difference in behavior it is most striking in the classes of models MPV. That is, the fact that the porosity vary in these models is an additional factor that plays a significant role in flow analysis. Finally, the results proved satisfactory and consistent, which demonstrates the effectiveness of the referred methodology for all applications analyzed in this study.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Steam injection is a method usually applied to very viscous oils and consists of injecting heat to reduce the viscosity and, therefore, increase the oil mobility, improving the oil production. For designing a steam injection project it is necessary to have a reservoir simulation in order to define the various parameters necessary for an efficient heat reservoir management, and with this, improve the recovery factor of the reservoir. The purpose of this work is to show the influence of the coupled wellbore/reservoir on the thermal simulation of reservoirs under cyclic steam stimulation. In this study, the methodology used in the solution of the problem involved the development of a wellbore model for the integration of steam flow model in injection wellbores, VapMec, and a blackoil reservoir model for the injection of cyclic steam in oil reservoirs. Thus, case studies were developed for shallow and deep reservoirs, whereas the usual configurations of injector well existing in the oil industry, i.e., conventional tubing without packer, conventional tubing with packer and insulated tubing with packer. A comparative study of the injection and production parameters was performed, always considering the same operational conditions, for the two simulation models, non-coupled and a coupled model. It was observed that the results are very similar for the specified well injection rate, whereas significant differences for the specified well pressure. Finally, on the basis of computational experiments, it was concluded that the influence of the coupled wellbore/reservoir in thermal simulations using cyclic steam injection as an enhanced oil recovery method is greater for the specified well pressure, while for the specified well injection rate, the steam flow model for the injector well and the reservoir may be simulated in a non- coupled way

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Simulations based on cognitively rich agents can become a very intensive computing task, especially when the simulated environment represents a complex system. This situation becomes worse when time constraints are present. This kind of simulations would benefit from a mechanism that improves the way agents perceive and react to changes in these types of environments. In other worlds, an approach to improve the efficiency (performance and accuracy) in the decision process of autonomous agents in a simulation would be useful. In complex environments, and full of variables, it is possible that not every information available to the agent is necessary for its decision-making process, depending indeed, on the task being performed. Then, the agent would need to filter the coming perceptions in the same as we do with our attentions focus. By using a focus of attention, only the information that really matters to the agent running context are perceived (cognitively processed), which can improve the decision making process. The architecture proposed herein presents a structure for cognitive agents divided into two parts: 1) the main part contains the reasoning / planning process, knowledge and affective state of the agent, and 2) a set of behaviors that are triggered by planning in order to achieve the agent s goals. Each of these behaviors has a runtime dynamically adjustable focus of attention, adjusted according to the variation of the agent s affective state. The focus of each behavior is divided into a qualitative focus, which is responsible for the quality of the perceived data, and a quantitative focus, which is responsible for the quantity of the perceived data. Thus, the behavior will be able to filter the information sent by the agent sensors, and build a list of perceived elements containing only the information necessary to the agent, according to the context of the behavior that is currently running. Based on the human attention focus, the agent is also dotted of a affective state. The agent s affective state is based on theories of human emotion, mood and personality. This model serves as a basis for the mechanism of continuous adjustment of the agent s attention focus, both the qualitative and the quantative focus. With this mechanism, the agent can adjust its focus of attention during the execution of the behavior, in order to become more efficient in the face of environmental changes. The proposed architecture can be used in a very flexibly way. The focus of attention can work in a fixed way (neither the qualitative focus nor the quantitaive focus one changes), as well as using different combinations for the qualitative and quantitative foci variation. The architecture was built on a platform for BDI agents, but its design allows it to be used in any other type of agents, since the implementation is made only in the perception level layer of the agent. In order to evaluate the contribution proposed in this work, an extensive series of experiments were conducted on an agent-based simulation over a fire-growing scenario. In the simulations, the agents using the architecture proposed in this work are compared with similar agents (with the same reasoning model), but able to process all the information sent by the environment. Intuitively, it is expected that the omniscient agent would be more efficient, since they can handle all the possible option before taking a decision. However, the experiments showed that attention-focus based agents can be as efficient as the omniscient ones, with the advantage of being able to solve the same problems in a significantly reduced time. Thus, the experiments indicate the efficiency of the proposed architecture

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior